50歳のオッサンがMachine Learningの勉強をはじめる (Day 2)

本日の勉強>Cost FunctionとGradient descentの途中までを終了

Atsushi Hyogo
Jul 10, 2017 · 1 min read

Cost Functionでの二乗誤差の説明が、ものすごくわかりやすい。

今まで何となく使っていた直線回帰の最小二乗法の考えだよね?これ。

適当にコピーして弾いていたブルースのフレーズが「マイナーペンタトニックって言うんだよこれ」って教えられた時ぐらいのインパクト。

なんで二乗するのか?はガウス=マルコフの定理によるもの、ってのをググってこちらから発見。

皆さん、学習しているのねぇ。

Gradient Descent=最急降下法は、まだ前半のビデオ視聴したのみ。チョット難しくなったので、繰り返しの学習が必要かもしれない。

Welcome to a place where words matter. On Medium, smart voices and original ideas take center stage - with no ads in sight. Watch
Follow all the topics you care about, and we’ll deliver the best stories for you to your homepage and inbox. Explore
Get unlimited access to the best stories on Medium — and support writers while you’re at it. Just $5/month. Upgrade