2018年06月24日

DNAは設計図というよりソースコード

神様は設計図は残さずソースだけ残していった。
posted by 台北猫々 at 21:52| Comment(0) | TrackBack(0) | 日記

2018年03月12日

有給強制買取制度

会社によって有給日数の保有上限があって、毎年の支給時に上限を
超過した場合は、その分破棄されることになりますが、、

超過した場合は、会社が余った有給を強制的に買い取りしなければ
ならないという法律をつくったらどうだろう。

posted by 台北猫々 at 22:13| Comment(0) | TrackBack(0) | 日記

2018年03月10日

生物進化の転機

生物の歴史が40億年
多細胞生物の誕生が10億年前で、以降生物の複雑化、多様化が進むスピードアップ

もしかして太陽の年齢が重なり活動が落ち着いてきたことに関係?
若い太陽は活動が活発でスーパーフレアを頻発していて、
これは大きな淘汰圧になり、
複雑化、多様化を妨げていた?
posted by 台北猫々 at 11:44| Comment(0) | TrackBack(0) | 日記

オートファジー

断食すると、オートファジーが活発になり、細胞の老廃物が掃除されるのか?
どのくらい断食すると有効なのか?
ただ、必須アミノ酸は摂取する必要があるだろう。
posted by 台北猫々 at 09:25| Comment(0) | TrackBack(0) | 日記

2017年12月31日

今年について

さてさて、2017年も暮れようとしています。
今年は赤ワインを飲みながら、ちょっと振り返ってみよう。

昨年の大晦日の日記を見ると、、

 「セキュリティ技術向上」継続
 「深層学習(人工知能)」継続
 「メンタルヘルス(もしくは心理学)」
 「猫々招来」継続


となっていました。でどうなったか。。。

「セキュリティ技術向上」・・・これは粛々と
「深層学習(人工知能)」・・・深層学習の学習進行中
「メンタルヘルス(もしくは心理学)」・・・あっやってない。。。
「猫々招来」・・・目途が立つような。。

人工知能は、人工知能もどきやタイムスパンを不明瞭した話が色々混ざって
状況が見えにくくなったいます。

山は、根子岳と四阿山にいったけど、もう少し登りたかった、天気に恵まれずでした。
来年は北海道の山に登りたい。あと屋久島に行きたい。

さて、来年の目標
 「セキュリティ技術向上」継続
 「深層学習(人工知能)」継続
 「脳科学」
 「猫々招来」継続

ともあれ、来年も頑張っていきまっしょい!猫


posted by 台北猫々 at 23:51| Comment(0) | TrackBack(0) | 日記

2017年11月12日

霧氷桜&霧氷青空

20171112-1.JPG

20171112-2.JPG
posted by 台北猫々 at 00:00| Comment(0) | TrackBack(0) | 今日フォト

2017年02月08日

不条理というのは

不条理というのは、どんな人にも公平に訪れるもの。
理解はできても、やはり「なんで?」と。

ジョパンニがカンパネルラの死を受け入れるのに銀河を横切るほどの
時間が必要になったように。



posted by 台北猫々 at 22:30| Comment(0) | TrackBack(0) | 日記

2017年02月05日

「Deep Learning Javaプログラミング 深層学習の理論と実装」2

2.5.2 ロジスティック回帰
 回帰モデル(2変数からの式)、シグモイド関数
 パーセプトロンを一般化した線形分離モデル
 確率的勾配降下法
 
⇒線形分離可能な命題のみ対応可能。非線形問題(XOR問題)は対応不可。
⇒現実の問題はほぼ非線形
⇒多層パーセプトロンや多層ニューラルネットワークの出番
posted by 台北猫々 at 17:30| Comment(23) | TrackBack(0) | 技術メモ(人工知能)

2017年01月15日

「Deep Learning Javaプログラミング 深層学習の理論と実装」1



人工知能の実際のプログラミング実装も見ながら理論を勉強しようと思い購入。

Amazonのレビューでもありましたが、P42から43がだいぶ説明が省略されていますね。
深層学習以前の話なので、省略されているのでしょうが、初心者には結構つらいです。

理解したことをメモ

「パーセプトロン」で線形分離可能という前提のもと(この分離線を「直線A」とする)、
「直線A」を0基準とすると、誤差のあるデータは正数領域もしくは負数領域のどちらかに
なる。
「直線A」から負数領域のデータまでの距離は負数(wx<0)になるが、絶対値をとるため、
-1(t)を乗算している。※誤差はあくまで「直線A」からの距離の積算のため。この計算を
やりやすくするために、t={1, -1}にしている(t={1, 0}ではなく)。

また、wを調整して「誤差の合計値」が最も小さくなるところを探すことが「学習」ということになるが、
ここで使用しているのは勾配降下法である。この方法は、傾き(微分的には平均変化率ともいう)
=勾配を使用して最適化するものであるが、何の傾きかというと、X軸にw/Y軸に「誤差の合計値」と
したグラフ(曲線グラフ)の微分係数(接線の傾き)になる。この傾きをwに加減してwを最適化する
ことになる。
※曲線グラフに2次曲線(y=ax2)をイメージすると、誤差が大きいと傾きも大きく、誤差が小さくなる
と傾きが小さくなることを利用している。

p43の2.5.6がこの勾配降下法の式だけど、微分係数(接線の傾き)=xとしているのが腑に落ちない。。
E(w)をwで微分しているのだよなー Σがある式の微分かー 


posted by 台北猫々 at 16:41| Comment(17) | TrackBack(0) | 技術メモ(人工知能)

「ふたたびの微分・積分」

微分・積分がわからないと、人工知能の基礎的なところがわからない。。
ということで、

高校以来、微分・積分から遠ざかっていたので、再勉強のため購入。



ああ、そういえばこういうことだったー
という感じで学習中。
この本、わかりやすくていいです。
posted by 台北猫々 at 15:59| Comment(7) | TrackBack(0) | 技術メモ(人工知能)