読書会(Deep Learning Javaプログラミング 深層学習の理論と実装)第1回議事録
[ 戻る ]
=========================================================================================================
Java読書会BOF 「Deep Learning Javaプログラミング 深層学習の理論と実装」を読む会 第1回
=========================================================================================================
.. csv-table:: 開催概要
"日時", "2016年12月17日 10:00 - 17:00"
"場所", "川崎市教育文化会館 第3会議室"
"出席者(敬称略)", "遠藤、今井、岩室、高橋(智)、高橋(徹)、石黒、金山、青山、井上、吉本、川内、平山、Lijie Qiao、加藤(書記)"
第 1 回は、カバー裏の説明からスタート。
Chapter 0 まえがき等
====================
- 著者も訳者も同じすごい本!
Chapter 1 人工知能とディープラーニングの変遷
============================================
- P.1 Pepper って Softbank だったんだ
- フランスのアルデバランを買収して作ったもの
1.1 人工知能の変遷
-------------------
- P.10 超平面とは
- 「n-次元空間における超平面とは、次元が n - 1 の平坦な部分空間をいう」
https://ja.wikipedia.org/wiki/超平面
- 多次元の分類をするときにそれを2分する平面
1.2 機械と人間を分けるもの
--------------------------
1.3 人工知能とディープラーニング
--------------------------------
- P.21 シンギュラリティ・・・技術予測が行える臨界点とは?その先は何も予測できないってこと?
- 30年後にターミネーターができるとか?
- 人工知能が人間を越えると、人間の生活が後戻りできないほど変容するとのこと
- 人間には人工知能がコントロールできなくなる世界?
- マトリックス的な?
- ソースコードの品質向上にディープラーニングは使えるのか?
- 商用の静的解析ツールで、API呼び出しの慣例に従っているかチェックするルールがある、学習で向上できるかも
- いいコードは誰がどう評価するのか、GitHub のリアクションとか?
Chapter 2 機械学習アルゴリズムを学ぶ - ディープラーニングへの準備
=================================================================
2.1 実装に際して
-----------------
- P.26 パッケージ名が大文字なのが気になるが我慢
2.2 機械学習における「学習」の必要性
------------------------------------
2.3 教師あり学習と教師なし学習
-------------------------------
- P.30 スーパーでビールとおむつを一緒に買う人が多いやつ
- いわゆるバスケット分析の有名な例だ
- ディープラーニングの応用例
- Google の認識 (人や場所の分類など) 結構優秀、Apple も
- いろんな車からデータ集めてナビの精度あげるとか
- P.31 カーネル関数ってどうやって作るのか?
- これ次第でなんとでもなってしまいそう
- 図2-5 的には、中心点からの距離とか?
- P.32 隠れマルコフモデルについて
- 時系列データの予測に使う
- 頻度の高いものをくっつけやすい
- P.33 回帰モデルとは?
- 連続地をとる2つの変数からなる式を想定したモデル (P.48)
2.4 機械学習の流れ
------------------
- K-分割交差検証
- どうやって分割するのかにも関わる気がする
- ランダム?日付?人間の判断が入っていいのか悪いのか
- ランダムに切ってしまうとモデルが切れてしまう場合も
2.5 ニューラルネットワークの理論とアルゴリズム
----------------------------------------------
- P.42 数式解説
- 式2.5.1 ``T`` はベクトルの転置
- 式2.5.2 ``∈`` は集合
- P.42 式2.5.3 は ``>`` ではなく ``≧`` ではないか?
- 式2.5.1 では ``a`` は ``0`` を含むため ``0`` も分類可能 (C1)
- 式2.5.4 も ``0`` を含んで良いはず (``≧`` で良いはず)
- P.43 数式解説
- 式 2.5.6 ``η`` イータ (学習率), ``∇`` ナブラ (偏微分、傾き)
- P.44 ``epochs`` は数式の ``k``
- P.45 学習回数到達判定のコードわかりづらい・・・
- この分野のコードはこういうコードが多い
- P.48 何回も繰り返すと結果変わる?
- サンプルコードは seed 固定値
- P.49 数式解説
- 式 2.5.9 ``p(C=1|x)`` は ``X`` における ``C=1`` の条件付き確率
- 式 2.5.9 ``σ`` はシグマ
- P.50 数式解説
- 式 2.5.11 ``Π`` パイ (総乗、product)
- 式 2.5.13 ``ln`` 自然対数
- 式 2.5.14 ``δ`` デルタ
- P.51 k はステップの数?
- 2.5.3 と同じ
次回は P.52「2.5.3 多クラスロジスティック回帰」から。
[ 戻る ]