2017年01月15日

「Deep Learning Javaプログラミング 深層学習の理論と実装」1



人工知能の実際のプログラミング実装も見ながら理論を勉強しようと思い購入。

Amazonのレビューでもありましたが、P42から43がだいぶ説明が省略されていますね。
深層学習以前の話なので、省略されているのでしょうが、初心者には結構つらいです。

理解したことをメモ

「パーセプトロン」で線形分離可能という前提のもと(この分離線を「直線A」とする)、
「直線A」を0基準とすると、誤差のあるデータは正数領域もしくは負数領域のどちらかに
なる。
「直線A」から負数領域のデータまでの距離は負数(wx<0)になるが、絶対値をとるため、
-1(t)を乗算している。※誤差はあくまで「直線A」からの距離の積算のため。この計算を
やりやすくするために、t={1, -1}にしている(t={1, 0}ではなく)。

また、wを調整して「誤差の合計値」が最も小さくなるところを探すことが「学習」ということになるが、
ここで使用しているのは勾配降下法である。この方法は、傾き(微分的には平均変化率ともいう)
=勾配を使用して最適化するものであるが、何の傾きかというと、X軸にw/Y軸に「誤差の合計値」と
したグラフ(曲線グラフ)の微分係数(接線の傾き)になる。この傾きをwに加減してwを最適化する
ことになる。
※曲線グラフに2次曲線(y=ax2)をイメージすると、誤差が大きいと傾きも大きく、誤差が小さくなる
と傾きが小さくなることを利用している。

p43の2.5.6がこの勾配降下法の式だけど、微分係数(接線の傾き)=xとしているのが腑に落ちない。。
E(w)をwで微分しているのだよなー Σがある式の微分かー 


posted by 台北猫々 at 16:41| Comment(13) | TrackBack(0) | 技術メモ(人工知能)

「ふたたびの微分・積分」

微分・積分がわからないと、人工知能の基礎的なところがわからない。。
ということで、

高校以来、微分・積分から遠ざかっていたので、再勉強のため購入。



ああ、そういえばこういうことだったー
という感じで学習中。
この本、わかりやすくていいです。
posted by 台北猫々 at 15:59| Comment(2) | TrackBack(0) | 技術メモ(人工知能)

2017年01月06日

「IBM Watsonのかなりの部分に深層学習」

「Watsonのかなりの部分に深層学習」

元々は従来の機械学習で構築していたWatsonですが、深層学習(ディープラーニング)
も使うようになっていると。
(確か深層学習得意な会社を買収していたかな)
posted by 台北猫々 at 23:03| Comment(20) | TrackBack(0) | 技術メモ(人工知能)

「あたらしい人工知能の教科書」



現在の人工知能関連の最新情報を知れる良書でした。
この本を読むと、昨年買った

について得た知識がつながっていく感じがしています。

posted by 台北猫々 at 22:58| Comment(6) | TrackBack(0) | 技術メモ(人工知能)