書籍『DeepLearning』を松尾研のみなさまが主体となって翻訳されたそうです。この書籍、東大の授業でも、cs231nでも推薦されてた。日本語訳まじありがたい・・・。今後書籍が発売予定とのことだがそれまではオンライン上で無料公開の上、ご意見・ご指摘募集中とのこと。
詳解ディープラーニングという本の読書会が行われていたのだが、その最後に著者の巣籠さんへの質問会があった。
改めて配布資料とコードを読み直してるんだけど、宿題のスコア上げに集中して、コードの理解が足りてなかったなと感じている。秋学期の講義が受けられるならこの辺は気をつけたい。不明点は同期に相談してみよう。
入り口:「人工知能は人間を超えるか」(拙著)
読み物:「人間さまお断り―人工知能時代の富と仕事の手引き」(Jerry Kaplan, 近刊)
教科書:「深層学習」(岡谷貴之)
教科書:”Deep Learning” (Y. Bengioら、MIT pressから来年出版。翻訳を出版予定)
データの入出力にdropoutを入れることもあるとこちらの記事にあったので、やってみたが、全く精度が出ない。2値分類で正解率50%近いので、ほぼランダムじゃないかと。
おそらく実装の方法が違うのだろう、論文原文にあまり触れて来てないので、ちゃんと読むようにしよう・・・。
AILの講義でRNNに取り組んでいる。データセットはIMDB映画レビュー感情分類。
CNNの課題などではデータ拡張が精度向上に大きく貢献していたのでRNNの課題でもできればと思ったが、画像データと比べてデータ拡張はしづらいように感じる。
反転させてもいいものか、と思ったが、英語だと単語が逆の並び順だと疑問文になったりもするだろうし、微妙かなという気がしている。実際試してみたところ、精度はそれほど伸びてない。
現時点ではRNNしか実装できていないため、パラメータ調整するにしても、それほどできることはなさそうに感じている。LSTMを実装した方がいいのだろうか。
大きく2つの意味があるようだ
参考資料は下記。
今日も今日とてAILの講義でした。内容はCNNについて。
1957年にはパーセプトロンの学習規則に関する概念が発表されていたとのこと。(この辺はPython機械学習プログラミング2章にも記述がある。)
Rosenblattさんの研究されている写真を見たのだが、当時はパソコンもないので、 回路つないでパーセプトロンを作っていたそうだ。(写真はこちら)
AILの宿題が先ほど24時までだったのですが、今回は最終的に意味のない実装に時間をかけてしまった。
MNISTの画像回転をnumpyだけで実装したのだが、学習に時間がかかりすぎるため、今回は利用を見送った。
Adagradなどの学習率変化の実装を終えてから、データ量を増やすものに着手すべきだったと思う。
またデータの正規化などにも着手していなかった。これまで学んだことを一覧化して、実装の際にチェックするようにしたい。
MNISTの手書き文字画像を回転させるために、 scikit-image を用いようと思ったが、スピードが遅いようだ。
scikit-image
一枚ずつ、for文で書こうしているため、遅くなってしまっている。
おそらく、for文ではなくnumpy使って、行列計算でまとめて画像データを加工しなくてはいけないということかと思い、アフィン変換を自力で書こうとしているが、数時間かけてうまくいかず。
Qiitaの記事に書かれていたコードを参考にいじっているが、ゼロから自分で書かないと理解が浅いように思う。