AI神經網路人工智慧與應用實務| 06:AI神經網路-影片解說
Published in
4 min readApr 3, 2019
大數據>> 資料越多越好
影片:究竟神經網路是什麼?
https://www.youtube.com/watch?v=aircAruvnKk
CNN
特徵的取樣
先設定一個 kernel去比對圖形,就可以知道其特爭值之加權總合
也可以在kernel改成中間的權重更亮 上下的權重更暗(紅色部分),這樣也可以提升這個權重值的準確度
第一層的a =sigmoid(邏輯函數)*[第0層的乘積(W * 第0層的a]+ bias(偏差)
W:權重值
sigmoid(邏輯函數):目的是把數字壓縮到0~1之間
影片:梯度下降,神經網絡如何學習
https://www.youtube.com/watch?v=IHZwWFHWa-w
調整>>
計算距離的差距
例如要比對
將0.43(辨識為0)-0.00的平方>>因為要算兩者間差距,平方僅是為了讓其值變成正數
但要將0.88(辨識為3)-1的平方>>因為這個算對
然後把全部值加總,當值越低,就代表資料越準確,再去調整
用微積分可以為該值去做一個曲線,進而求相對最低值,而可由斜率判斷是否為相對低點
影片:什麼是反向傳播演算法?
https://www.youtube.com/watch?v=Ilg3gGewQ5U
權重值大的遠比權重值小的影響大多了(例如權重值3.2是0.1的32倍),所以要調整梯度下降,從高權重值的那條去調整比較快
要修某一層,因為其值是由前一層所構成,所以必須由前一層對這個參數有影響的線修,但由於部分幾條權重值比較大,調整影響會更大,所以應該由這些高權重值的優先調整
右邊的每一個值對左邊層每一個值做暗示,左邊的值受到右邊暗示N次(用加總的方式決定最後權重值調整)
隨機梯度下降(SGD)
我們現在對一個樣本做反向傳播後,再把全部樣本做反向傳播後
把全部資料做權重調整,但這樣資料量太大,效果不彰
為了降低總體運算量,我們把樣本打亂做小量分組,這樣就能用近似但快速的下降而獲得結果