熱線電話:13121318867

登錄
首頁大數據時代如何快速簡單的理解決策樹的概念?
如何快速簡單的理解決策樹的概念?
2020-07-09
收藏

決策樹(Decision Tree)是機器學習中一種常見的算法,它的思想非常樸素,就像我們平時利用選擇做決策的過程。決策樹是一種基本的分類與回歸方法,當被用于分類時叫做分類樹,被用于回歸時叫做回歸樹。

一、決策樹結構:

顧名思義,決策樹在邏輯上表現為樹的形式,包含有節點和向邊。

一般情況下,一棵決策樹包含一個根結點、若干個內部結點和若干個葉結點。

根節點:包含樣本全集,從根結點到每個葉結點的路徑對應了一個判定測試序列。

內部節點:表示一個特征和屬性。每個內部節點都是一個判斷條件,并且包含數據集中,滿足從根節點到該節點所有條件的數據的集合。根據內部結點的屬性測試結果,內部節點對應的數據的集合別分到兩個或多個子節點中。

葉節點:表示一個類,對應于決策結果。葉節點為最終的類別,如果該數據被包含在該葉節點,則屬于該類別。

如下圖中,其中圓和方框分別表示內部結點和葉結點。

簡而言之,決策樹是一個利用樹的模型進行決策的預測模型,表現出的是對象屬性與對象值之間的一種映射關系,簡單明了,非常容易理解。

我們決策樹學習的目的是為了產生一棵泛化能力強,也就是能夠高效、有效處理未見示例的決策樹。

二、決策樹的優缺點:

1.決策樹的最大優點是,對背景知識要求不高,計算復雜度也不是很高,可以自學習。

2.屬于有監督學習

3.對中間缺失值不敏感

4. 解釋性強,甚至超過線性回歸

5.相比傳統的回歸和分類方法,決策樹是更接近人的決策模式

6. 能夠用圖形來表示,即使不是專業人士也可以輕松理解

7.可以在不創建啞變量的情況下,直接處理定性的預測變量,

8.決策樹的預測準確性相比一般比回歸和分類方法比較弱,但能夠通過用集成學習方法組合大量決策樹,這樣可以顯著提升樹的預測效果

三、決策樹的生成

決策樹的生成是一個自頂向下的遞歸過程,其基本思想是以信息熵為度量構造一顆熵值下降最快的樹,到葉子節點處的熵值為零。

決策樹算法中有三種情形導致遞歸返回:

1)當前節點包含的樣本屬于同一類,不需要劃分;

2)當前屬性集為空,無法進行劃分。這種情況下,需要將當前結點標記成葉節點,并將其類別設定為所含樣本最多的類別;利用當前結點的后驗分布;(就是:有樣本無屬性進行劃分)

3)當前結點包含的樣本集合為空,不能進項劃分。此時,要將當前結點標記為葉節點,將其類別設定為其父結點所含樣本最多的類別;利用父結點的先驗分布(就是:無樣本有屬性)

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢