ML入門(十七)隨機森林(Random Forest)

Chung-Yi
程式設計之旅
Published in
3 min readSep 28, 2019

介紹

Random Forest的基本原理是,結合多顆CART樹(CART樹為使用GINI算法的決策樹),並加入隨機分配的訓練資料,以大幅增進最終的運算結果。顧名思義就是由許多不同的決策樹所組成的一個學習器,其想法就是結合多個「弱學習器」來建構一個更強的模型:「強學習器」。這種方法又稱為Ensemble Method,也就是「三個臭皮匠勝過一個諸葛亮」的概念。

不過我們只有一個數據集,所以要形成多顆具差異性的樹以進行Ensemble Method,就是要產生不同的數據集,才能產生多顆具差異性的CART樹,其作法有兩種方式:

  1. Bagging(Bootstrap Aggregation):

Bootstrap指的是「重新取樣原有Data產生新的Data,取樣的過程是均勻且可以重複取樣的」,使用Bootstrap我們就可以從一組Data中生出多組Dataset。

此種方法會從Training dataset中取出K個樣本,再從這K個樣本訓練出K個分類器(在此為tree)。每次取出的K個樣本皆會再放回母體,因此這個K個樣本之間會有部份資料重複,不過由於每顆樹的樣本還是不同,因此訓練出的分類器(樹)之間是具有差異性的,而每個分類器的權重一致最後用投票方式(Majority vote)得到最終結果。

2. Boosting:

與Bagging類似,但更強調對錯誤部份加強學習以提升整體的效率。是透過將舊分類器的錯誤資料權重提高,加重對錯誤部分的練習,訓練出新的分類器,這樣新的分類器就會學習到錯誤分類資料(misclassified data)的特性,進而提升分類結果。就好像在學校考試時,面臨大型考試前都會加強比較弱的部分或是把之前考試時錯誤的題目再多練習幾次。

所以大概可以猜想得出來:

Random Forest = Bagging + Decision Tree

步驟

  1. 定義大小為n的隨機樣本(這裡指的是用bagging方法),就是從資料集中隨機選取n個資料,取完後放回。
  2. 從選取的n個資料中,訓練出決策樹。對每一個節點:
    a. 隨機選取d個特徵
    b. 使用特徵分割該節點(信息增益,information gain,不熟的話可以去看ML入門(十六)決策樹(Decision Tree),有介紹什麼是信息增益)
  3. 重複k次步驟1~步驟2
  4. 匯總所有決策樹的預測,以多數決的方式,來決定分類結果。

鳶尾花數據實作

--

--

Chung-Yi
程式設計之旅

我思故我在。跨領域的麻瓜工程師,希望透過文字跟你/妳交流分享