機器學習方法概觀

Tommy Huang
Jul 9, 2018 · 7 min read

這篇主要是寫我所有文章的分類,如果有新的文章都是持續在這邊更新。
因為有些文章都會要打很久,有些很快,幾乎都是我想到什麼打什麼,所以文章很凌散。

我寫文章是希望讀者能很清楚知道
1. 機器學習的方法是怎麼運作
2. 理論是怎麼推導

我在方法介紹運作方法,盡量都用圖解方式寫的清楚方法是怎麼執行,主要原因是網路找到的資源大多寫的很模糊,在理論推導部份也是,所以推導部份我盡量推的很細,很多資源推導幾乎都會跳來跳去,不知道在寫什麼。

如果有想要了解的方法,直接留言或是e-mail我(chih.sheng.huang821@gmail.com),如果我會又不太花時間我就會寫,或是我很有興趣的,我也會寫。

前言

機器學習基本上可以稱為聖經之類的書,前幾章節一定是複習基礎數學。就算是Goodfellow最夯的深度學習(Deep learning)教科書Part I (Applied Math and Machine Learning Basics)都是在介紹線性代數、機率和訊息理論、數值分析等。每一項幾乎都是大學一學習甚至兩學期的課程,但大部分的書內基本上只會把機器學習和深度學習會用到的做個簡單介紹,所以大學有好好上線性代數、基礎統計學的,如果是要學理論基本上都可以很快上手。

當然有很多「實戰的書籍」,如下
1. 深度學習 — Caffe之經典模型詳解與實戰

這本我自己也有買,這本書不錯,如果只是要懂深度學習比較流行的模型架構,這類別的書很合適。但你想詳細知道理論,這類型的書很不合適,我不認為有老師會推薦這類的書當作機器學習或是深度學習理論的教科書。

以下為我撰寫之內容整理,我盡量有系統的整理到相關的類別內,當然有些方法是可以互通的,比如神經網路可以用在分類也可以用在回歸預測上。如果是監督式、非監督式或是半監督式的分類我會打在名稱後面。



機器學習介紹類 (Introduction for Machine/Deep learning)

- 什麼是人工智慧、機器學習和深度學習?

- 機器學習介紹





回歸分析(Regression)

- 線性回歸(Linear Regression)-監督式學習

- 機器學習: 決策樹 (Decision Tree)-監督式學習





神經網路包含深度學習(Neural network, including deep learning)

NN-1多層感知機(Multilayer perceptron, MLP)/深度神經網路(Deep neural network, DNN)相關
NN-1-1 機器學習- 神經網路(多層感知機 Multilayer perceptron, MLP)運作方式
NN-1–2 機器學習- 神經網路(多層感知機 Multilayer perceptron, MLP) 含詳細推導

NN-2卷積神經網路(Convolutional neural network, CNN)相關
NN-2–1 卷積神經網路(Convolutional neural network, CNN) — 卷積運算、池化運算
NN-2–2 卷積神經網路(Convolutional neural network, CNN) — CNN運算流程
NN-2–3 卷積神經網路(Convolutional neural network, CNN):卷積計算的倒傳遞推導與稀疏矩陣觀點來看卷積計算
NN-2–4 卷積神經網路(Convolutional neural network, CNN):卷積計算中的步伐(stride)和填充(padding)
NN-2–5 卷積神經網路(Convolutional neural network, CNN): 1×1卷積計算在做什麼

NN-3物件偵測相關
NN-3–1 深度學習-什麼是one stage,什麼是two stage 物件偵測
NN-3–2 深度學習-MobileNet (Depthwise separable convolution)
NN-3–3 深度學習-物件偵測:You Only Look Once (YOLO)
NN-3–4 機器/深度學習: 物件偵測 Non-Maximum Suppression (NMS)
NN-3–5 深度學習-物件偵測YOLOv1、YOLOv2和YOLOv3 cfg 檔解讀(一)
NN-3–6 深度學習-物件偵測YOLOv1、YOLOv2和YOLOv3 cfg 檔解讀(二)
NN-3–7 深度學習- YOLO模型視覺化呈現(含程式碼)
NN-3-8 深度學習: 物件偵測上的模型結構變化

NN-4 RNN家族
-遞歸神經網路(Recurrent Neural Network): Back-propagation Through Time

NN-5 其他
深度學習: Weight initialization和Batch Normalization


    Tommy Huang

    Written by

    怕老了忘記這些吃飯的知識,開始寫文章記錄機器/深度學習相關內容。黃志勝 Chih-Sheng Huang (Tommy), mail: chih.sheng.huang821@gmail.com

    Welcome to a place where words matter. On Medium, smart voices and original ideas take center stage - with no ads in sight. Watch
    Follow all the topics you care about, and we’ll deliver the best stories for you to your homepage and inbox. Explore
    Get unlimited access to the best stories on Medium — and support writers while you’re at it. Just $5/month. Upgrade