2017年02月08日

不条理というのは

不条理というのは、どんな人にも公平に訪れるもの。
理解はできても、やはり「なんで?」と。

ジョパンニがカンパネルラの死を受け入れるのに銀河を横切るほどの
時間が必要になったように。



posted by 台北猫々 at 22:30| Comment(0) | TrackBack(0) | 日記

2017年02月05日

「Deep Learning Javaプログラミング 深層学習の理論と実装」2

2.5.2 ロジスティック回帰
 回帰モデル(2変数からの式)、シグモイド関数
 パーセプトロンを一般化した線形分離モデル
 確率的勾配降下法
 
⇒線形分離可能な命題のみ対応可能。非線形問題(XOR問題)は対応不可。
⇒現実の問題はほぼ非線形
⇒多層パーセプトロンや多層ニューラルネットワークの出番
posted by 台北猫々 at 17:30| Comment(0) | TrackBack(0) | 技術メモ(人工知能)

2017年01月15日

「Deep Learning Javaプログラミング 深層学習の理論と実装」1



人工知能の実際のプログラミング実装も見ながら理論を勉強しようと思い購入。

Amazonのレビューでもありましたが、P42から43がだいぶ説明が省略されていますね。
深層学習以前の話なので、省略されているのでしょうが、初心者には結構つらいです。

理解したことをメモ

「パーセプトロン」で線形分離可能という前提のもと(この分離線を「直線A」とする)、
「直線A」を0基準とすると、誤差のあるデータは正数領域もしくは負数領域のどちらかに
なる。
「直線A」から負数領域のデータまでの距離は負数(wx<0)になるが、絶対値をとるため、
-1(t)を乗算している。※誤差はあくまで「直線A」からの距離の積算のため。この計算を
やりやすくするために、t={1, -1}にしている(t={1, 0}ではなく)。

また、wを調整して「誤差の合計値」が最も小さくなるところを探すことが「学習」ということになるが、
ここで使用しているのは勾配降下法である。この方法は、傾き(微分的には平均変化率ともいう)
=勾配を使用して最適化するものであるが、何の傾きかというと、X軸にw/Y軸に「誤差の合計値」と
したグラフ(曲線グラフ)の微分係数(接線の傾き)になる。この傾きをwに加減してwを最適化する
ことになる。
※曲線グラフに2次曲線(y=ax2)をイメージすると、誤差が大きいと傾きも大きく、誤差が小さくなる
と傾きが小さくなることを利用している。

p43の2.5.6がこの勾配降下法の式だけど、微分係数(接線の傾き)=xとしているのが腑に落ちない。。
E(w)をwで微分しているのだよなー Σがある式の微分かー 


posted by 台北猫々 at 16:41| Comment(0) | TrackBack(0) | 技術メモ(人工知能)

「ふたたびの微分・積分」

微分・積分がわからないと、人工知能の基礎的なところがわからない。。
ということで、

高校以来、微分・積分から遠ざかっていたので、再勉強のため購入。



ああ、そういえばこういうことだったー
という感じで学習中。
この本、わかりやすくていいです。
posted by 台北猫々 at 15:59| Comment(0) | TrackBack(0) | 技術メモ(人工知能)

2017年01月06日

「IBM Watsonのかなりの部分に深層学習」

「Watsonのかなりの部分に深層学習」

元々は従来の機械学習で構築していたWatsonですが、深層学習(ディープラーニング)
も使うようになっていると。
(確か深層学習得意な会社を買収していたかな)
posted by 台北猫々 at 23:03| Comment(0) | TrackBack(0) | 技術メモ(人工知能)

「あたらしい人工知能の教科書」



現在の人工知能関連の最新情報を知れる良書でした。
この本を読むと、昨年買った

について得た知識がつながっていく感じがしています。

posted by 台北猫々 at 22:58| Comment(0) | TrackBack(0) | 技術メモ(人工知能)

2016年12月31日

今年について

さてさて、2016年も暮れようとしています。
今年は「金麦 琥珀」のくつろぎを飲みながら、ちょっと振り返ってみよう。

昨年の大晦日の日記を見ると、、

 「セキュリティ技術向上」継続
 「データサイエンティスト技術習得」継続
 「人工知能」をとりあえずあげておく。
あと
 「猫々招来」。。。これが大変

となっていました。でどうなったか。。。

「セキュリティ技術向上」・・・これは粛々と
「データサイエンティスト技術習得」・・・深層学習の学習進行中
「人工知能」・・・深層学習の学習進行中
「猫々招来」・・・目途が立たない

人工知能の利用が一般的になってきた気がするが、果たしてブームで終わってしまうのか
どうか。

今年は槍ヶ岳以外の山にはあまりいけていませんでした。残念。
来年はとりあえず雨飾山に行こうと思う。あとはどこへ行こうかな。

9月ごろから始めた部屋トレは奇跡的に継続中。少し筋肉付いたかも。

今年見た映画で面白かったのは、
 「シン・ゴジラ」
 「君の名は」
 「この世界のかたすみで」

さて、来年の目標
 「セキュリティ技術向上」継続
 「深層学習(人工知能)」継続
 「メンタルヘルス(もしくは心理学)」
 「猫々招来」継続

ともあれ、来年も頑張っていきまっしょい!猫




posted by 台北猫々 at 21:21| Comment(0) | TrackBack(0) | 日記

2016年10月30日

ダリ展

今日は、「シュルレアリスム」の作品(「奇妙なものたち」)を実際に見たくてダリ展にいった。
「シュルレアリスム」以外の作品も見たが、、

初期作品の風景画もよかった、「こういう描き方があるんだ」と感心した。
中でも「縫い物をする祖母アナの肖像」は薄暗い部屋に外から
優しい光が差し込んでいる感じがとてもすきな作品。

「窓辺の少女」も見てみたかったが今回は展示がなかった。残念。

「シュルレアリスム」の作品は見ていて不思議な気分になる。
なんというか、その作品の中にいるかのような感じ。もしくは作品から飛び出してきているような。
 ・「謎めいた要素のある風景」
 ・「奇妙なものたち」
 ・「オーケストラの皮を持った3人の若いシュルレアリストの女たち」

posted by 台北猫々 at 20:35| Comment(0) | TrackBack(0) | 日記

2016年10月23日

「シン・ゴジラ」と「君の名は。」

立て続けに邦画を見る。
両方とも良作。心を揺さぶられる。
ロングランになっていることに納得。
posted by 台北猫々 at 21:06| Comment(0) | TrackBack(0) | 日記

2016年05月24日

あれ?

黒木華と芦田愛菜って似ている
posted by 台北猫々 at 22:10| Comment(0) | TrackBack(0) | 日記