50歳のオッサンがMachine Learningの勉強をはじめる (Day 2)
本日の勉強>Cost FunctionとGradient descentの途中までを終了
Jul 10, 2017 · 1 min read
Cost Functionでの二乗誤差の説明が、ものすごくわかりやすい。
今まで何となく使っていた直線回帰の最小二乗法の考えだよね?これ。
適当にコピーして弾いていたブルースのフレーズが「マイナーペンタトニックって言うんだよこれ」って教えられた時ぐらいのインパクト。
なんで二乗するのか?はガウス=マルコフの定理によるもの、ってのをググってこちらから発見。
皆さん、学習しているのねぇ。
Gradient Descent=最急降下法は、まだ前半のビデオ視聴したのみ。チョット難しくなったので、繰り返しの学習が必要かもしれない。
