Python在Scikit-Learn可視化隨機森林中的決策樹分析房價數(shù)據(jù)
原文鏈接:http://tecdat.cn/?p=27050?
原文出處:拓端數(shù)據(jù)部落公眾號
隨機森林是決策樹的集合。在這篇文章中,我將向您展示如何從隨機森林中可視化決策樹。
?視頻:從決策樹到隨機森林:R語言信用卡違約分析信貸數(shù)據(jù)實例
從決策樹到隨機森林:R語言信用卡違約分析信貸數(shù)據(jù)實例
,時長10:11
?
首先讓我們在房價數(shù)據(jù)集上訓(xùn)練隨機森林模型。
加載數(shù)據(jù)并訓(xùn)練隨機森林。
X = pd.DataFrame(data, columns=feature_names)
讓我們將森林中的樹數(shù)設(shè)置為 100:
RandomForestRegressor(n_estimators=100)
決策樹存儲在?模型list
?中的?estimators_
?屬性中?rf
?。我們可以檢查列表的長度,它應(yīng)該等于?n_estiamtors
?值。
len(estimators_)
>>> 100
我們可以從隨機森林中繪制第一棵決策樹(?0
?列表中有索引):
plot_tree(rf.estimators_[0])

這棵樹太大,無法在一個圖中將其可視化。
讓我們檢查隨機森林中第一棵樹的深度:
tree_.max_depth
>>> 16
我們的第一棵樹有?max_depth=16
. 其他樹也有類似的深度。為了使可視化具有可讀性,最好限制樹的深度。讓我們再次訓(xùn)練隨機森林?max_depth=3
。
第一個決策樹的可視化圖:
plot_tree(rf.estimators_[0])

我們可以可視化第一個決策樹:
viz

概括
我將向您展示如何可視化隨機森林中的單個決策樹??梢酝ㄟ^?estimators_
?列表中的整數(shù)索引訪問樹。有時當(dāng)樹太深時,值得用?max_depth
?超參數(shù)限制樹的深度。?

最受歡迎的見解
1.PYTHON用戶流失數(shù)據(jù)挖掘:建立邏輯回歸、XGBOOST、隨機森林、決策樹、支持向量機、樸素貝葉斯模型和KMEANS聚類用戶畫像
2.R語言基于樹的方法:決策樹,隨機森林
3.python中使用scikit-learn和pandas決策樹
4.機器學(xué)習(xí):在SAS中運行隨機森林?jǐn)?shù)據(jù)分析報告
5.R語言用隨機森林和文本挖掘提高航空公司客戶滿意度
6.機器學(xué)習(xí)助推快時尚精準(zhǔn)銷售時間序列
7.用機器學(xué)習(xí)識別不斷變化的股市狀況——隱馬爾可夫模型的應(yīng)用
8.python機器學(xué)習(xí):推薦系統(tǒng)實現(xiàn)(以矩陣分解來協(xié)同過濾)
9.python中用pytorch機器學(xué)習(xí)分類預(yù)測銀行客戶流失