AI神經網路人工智慧與應用實務| 06:AI神經網路-影片解說

Eric Y | 薪火相傳
Eric Y | 薪火相傳
4 min readApr 3, 2019

大數據>> 資料越多越好

影片:究竟神經網路是什麼?

https://www.youtube.com/watch?v=aircAruvnKk

CNN

特徵的取樣

先設定一個 kernel去比對圖形,就可以知道其特爭值之加權總合

也可以在kernel改成中間的權重更亮 上下的權重更暗(紅色部分),這樣也可以提升這個權重值的準確度

第一層的a =sigmoid(邏輯函數)*[第0層的乘積(W * 第0層的a]+ bias(偏差)

W:權重值

sigmoid(邏輯函數):目的是把數字壓縮到0~1之間

影片:梯度下降,神經網絡如何學習

https://www.youtube.com/watch?v=IHZwWFHWa-w

調整>>

計算距離的差距

例如要比對

將0.43(辨識為0)-0.00的平方>>因為要算兩者間差距,平方僅是為了讓其值變成正數

但要將0.88(辨識為3)-1的平方>>因為這個算對

然後把全部值加總,當值越低,就代表資料越準確,再去調整

用微積分可以為該值去做一個曲線,進而求相對最低值,而可由斜率判斷是否為相對低點

影片:什麼是反向傳播演算法?

https://www.youtube.com/watch?v=Ilg3gGewQ5U

權重值大的遠比權重值小的影響大多了(例如權重值3.2是0.1的32倍),所以要調整梯度下降,從高權重值的那條去調整比較快

要修某一層,因為其值是由前一層所構成,所以必須由前一層對這個參數有影響的線修,但由於部分幾條權重值比較大,調整影響會更大,所以應該由這些高權重值的優先調整

右邊的每一個值對左邊層每一個值做暗示,左邊的值受到右邊暗示N次(用加總的方式決定最後權重值調整)

隨機梯度下降(SGD)

我們現在對一個樣本做反向傳播後,再把全部樣本做反向傳播後

把全部資料做權重調整,但這樣資料量太大,效果不彰

為了降低總體運算量,我們把樣本打亂做小量分組,這樣就能用近似但快速的下降而獲得結果

--

--