http://minosys.hateblo.jp/entry/2020/07/09/070407
ゼロから作る Deep Learning❸を読んだ感想を追加しました。
気ままな技術者生活から人生について考える
http://minosys.hateblo.jp/entry/2020/07/09/070407
ゼロから作る Deep Learning❸を読んだ感想を追加しました。
都内某所で開催された機械学習勉強会に参加してみた。
このような勉強会に参加するのは初めてなので、どんな感じなのかわからなかったが、この日は講義形式だった。
確率論の基本が分かっていれば理解できる内容だったが、項数が多くて途中の式変形を理解するのに苦労した。講義自体はテンポも良く、よく理解できた。
勉強会でもなければ本を読まなくなっている気がするので、たまには参加するのも良いと思いました。
「ゼロから作るディープラーニング2」の書評を追加しました。
書評を追加しました。
AutoEncoder による DNN 初期化方法に関する記述を
ホームページ記事に追加しました。
今回の検証は python で行ったため、レポジトリを分けました。
Java による実装はそのうち手が空いた時に行おうと思います。
ようやく AutoEncoder を使った DNN が動いたので、GItHub に公開しました。
とりあえず、途中まで教科書「ゼロから作る Deep Learning」を参考にしつつ、
AutoEncoder クラスや MultiLayerNet クラスを追加しています。
4000回の学習でテストデータに対し、最小 88%、最大 96%程度の認識率を
持たせることができました。
DNN は途中のデバッグが非常に困難に感じます。既存の DNN ライブラリは
どうやってデバッグを解決しているのでしょうか。
記事の方はそのうち更新したいと思います。
JCuda 版ニューラルネットのコードに関する説明記事をアップしました。CPU 版と比較して、以下の変更があります、
SimpleNet.java の forward() 計算で、bias を使用しないというバグがあったため、JCudaNNKernel.cu とともに修正しました。ただ、bias があってもなくても正答率に目立った変化はないようです。
JCuda 版ニューラルネットのソースコード解説は、現在作成中です。完成にはあと2〜3日かかると思いますので、好ご期待。
AutoEncoder 系のライブラリも作成中ですが、まだ動きません。