在前一篇我們推演出VC theory,用以說明機器學習的可行性。回顧一下最後得到的不等式:
又開新的系列了,最近沉潛了好幾個月,其實是忙著程式碼的修改 — 對,3D Unet我實作成功了 —以及開始讀研究所。然後我突然發現對於深度學習的相關基礎理論還是學的不夠紮實,而傳統的深度學習理論仍很大部分借鏡自機器學習,因此我決定再退一步,從機器學習的理論開始。
網路上能找到我認為很完整,聽完一遍至少大略知道在說什麼的影片,而且是中文授課的,是機器學習基石系列。這是台大資工系林軒田教授的機器學習課程上半部;下半部還有機器學習技法。
在上一篇中我們討論到Hoffeding’s…
終於來到本系列課程的第一個重點了。前面兩篇依序提到Hoffeding’s inequality、dichotomy和shatter、以及break point的觀念。
前面的系列文,討論的基本上是「資料線性可分」的大前提。意思是說資料基本上線性可分;即使有一些資料無法線性可分,那也可以當作雜訊,或者是誤差來處理,在最後歸納的分類上,是可以做出線性分割的趨勢的。
這篇是討論機器學習基石裡面舉的第二個線性模型 — 羅吉斯回歸(logistic…
這裡的正規化(regularization)講的是針對模型的,是指在一票可以解決同一個問題的模型中找到最佳解。前面在介紹過度配適、非線性轉換時提到使用高次多項式,將資料投射到更高的維度可能可以解決問題,但隨之而來的模型複雜度有可能造成過度配適。因此挑選…
除了深度學習,也想再從機器學習相關的理論和實作中繼續深入,有些概念背後其實兩者是相通的。因此開啟這個系列,未來也會分享更多的模型和實作給大家。
在前面系列中,我們推演出VC bound,理解VC…
These were the top 10 stories published by 機器學習系列; you can also dive into yearly archives: 2021, 2022, and 2023.