NeuralNet.java でバグが見つかり、本来
for (int y = 0; y < ysize; ++y) { d += w[x][y] * bderivative[y] }
と書くべきところを x に関して和を取っていました。修正し、GitHub を更新しました。
修正の結果、収束がさらに速くなった気がします。また、ループを繰り返すと過学習してしまう傾向がみられます。
気ままな技術者生活から人生について考える
NeuralNet.java でバグが見つかり、本来
for (int y = 0; y < ysize; ++y) { d += w[x][y] * bderivative[y] }
と書くべきところを x に関して和を取っていました。修正し、GitHub を更新しました。
修正の結果、収束がさらに速くなった気がします。また、ループを繰り返すと過学習してしまう傾向がみられます。