決策樹(Decision Trees ,DTs)是一種無監督的學習方法,用於分類和回歸。
優點:計算複雜度不高,輸出結果易於理解,對中間值缺失不敏感,可以處理不相關的特徵資料
缺點:可能會產生過度匹配的問題
適用資料型別:數值型與標稱型source code下載https://www.manning.com/books/machine-learning-in-action
執行demo
關鍵演算法
尋找分割資料集的最佳特徵
分割資料集
建立分支節點
呼叫函數createBranch並增加回傳結果到分支節點中
return 分支節點對應程式碼
class#class##class#class#class#class#class#class#class#class#class#class#class#class#class#class#class#class#class#class#4class
List
= [example[-1] for example in dataSet] 不是dataset[-1] {dataset倒數第一個元素} ,而這時裡,dataset每一個元素裡的倒數第一元素 if classList.count(classList[0]) == len(classList): 如果傳回分類List count類型一樣,則傳回該類型!在子節點是否可分類如是一類型回傳 否則遞歸
往下分類 return classList[0]#stop splitting when all of the classes are equal## == 1: #stop splitting when there are no more features in dataSet 如果只有一個元素 return majorityCnt(classList) Tope return majorityCnt(classList) Tope return majorityCnt(classList)
ature 尾) 選擇最好的特徵。索引
bestFeatLabel = labels[bestFeat ] 而得到這個label flippers 還是no surfaces 呢
myTree = {bestFeatLabel:{}} 該最好分類
featValues = [example[bestFeat] for example in dataSet]
uniqueVals = set(featValues) set是歸類,見 subLabels = labels[:] #copy all of labels, so trees don't mess up existing labels
myTree[bestFeatLabel][value] = createTree(splitData(dataSet, bestFeatLabel][value] = createTree(splitData(dataSet, bestFeatLab, value] = )
在分割數據集之前之後資訊發生的變化稱為資訊增益,劃分資料集的最大原則是將無序的資料變得更加有序。 這裡理解成切餅原理:
把資訊的複雜度,資訊量用單位熵描述程度。 對應的是餅的密度,如果是均等密度的垂直切餅,
每部分重量g = 總G * 其占大圓比例! 類比地,如果分割後資訊熵一樣, 每個小部分資料的 小h = pro * 總H, 而求和h[i] = H.
然而:我們需要的相反:需要的不是資訊熵一樣,而是不均等,例如上面,上綠的可能是草每餡,黃色是蘋果餡,藍色是紫薯,每個密度不同!
調試過程
calcShannonEnt
log(prob,2) log(1,2) = 0;2^0=1,因為prob
25行for featVec in dataSet: 計頻 for prop
chooseBestFeatureToSplit()
0.9709505944546686 = calcShannonEnt(dataSet) <class '205944546686 = calcShannonEnt(dataSet) <class '2]; ], [1, 1, 'yes'], [1, 0, 'no'], [0, 1, 'no'], [0, 1, 'no']]
#檢測資料集的每個子項是否屬於同一類: 如果值都是a,而result都是y或n 則為一類所以,只是兩個參數輸入
0.5509775004326937 = += prob * calcShannonEnt(subDataSet) 分開的子集後,的機率*香農滴,得到的和,原來的整體的香濃滴比
# 数据越接近,香浓熵值越少,越接近0 ,越不同,越多分逻辑,香浓熵就越大 # 只计算 其dataSet的featVec[-1] 结果标签 def calcShannonEnt(dataSet):
0.4199730940219749 infoGain = baseEntropy - newEntropy
像k鄰近 classify([0, 0], group, labels, 3) 意思是,把新資料[0,0] 按k=3的鄰近演算法在 group,labels資料裡的分類! group與label對應!
所以,是要把每個維度切出來+ 結果標籤 成二維的 一列數組,去比較分類
測試應該是,把前n個維量的值,向量輸入,輸出是yes or no!
一開始看,比較頭暈,條理清楚,理順下思路,看程式碼才易懂!
理解了目標和初始數據,你才明白,原來classList是結果標籤! ,是對應將要分類的dataset的對應結果標籤
而labels 則是特徵名,對應開始的dataset的維度,特徵的名strname
bestFeatLabel 最好分類特徵的維度名稱 是第一維度還是第二,第N
featValues 是bestFeatLabel 的維度下,的值數組。就是這一維度下的組別 用來做新的分類比較。
uniqueVals 用set判斷來是否一類,
例如
dataSet = [[1, 1, 'yes'],[0, 1, 'yes'],[1, 0, 'no' ],[1, 0, 'no'],[0, 0, 'no']]
labels = ['no surfacing','flippers',]
這樣的createTree :{'flippers': {0: 'no', 1: 'yes'}} 直接把no surfacing的維度省略了
以上是python機器學習決策樹詳細介紹的詳細內容。更多資訊請關注PHP中文網其他相關文章!

Python的靈活性體現在多範式支持和動態類型系統,易用性則源於語法簡潔和豐富的標準庫。 1.靈活性:支持面向對象、函數式和過程式編程,動態類型系統提高開發效率。 2.易用性:語法接近自然語言,標準庫涵蓋廣泛功能,簡化開發過程。

Python因其簡潔與強大而備受青睞,適用於從初學者到高級開發者的各種需求。其多功能性體現在:1)易學易用,語法簡單;2)豐富的庫和框架,如NumPy、Pandas等;3)跨平台支持,可在多種操作系統上運行;4)適合腳本和自動化任務,提升工作效率。

可以,在每天花費兩個小時的時間內學會Python。 1.制定合理的學習計劃,2.選擇合適的學習資源,3.通過實踐鞏固所學知識,這些步驟能幫助你在短時間內掌握Python。

Python適合快速開發和數據處理,而C 適合高性能和底層控制。 1)Python易用,語法簡潔,適用於數據科學和Web開發。 2)C 性能高,控制精確,常用於遊戲和系統編程。

學習Python所需時間因人而異,主要受之前的編程經驗、學習動機、學習資源和方法及學習節奏的影響。設定現實的學習目標並通過實踐項目學習效果最佳。

Python在自動化、腳本編寫和任務管理中表現出色。 1)自動化:通過標準庫如os、shutil實現文件備份。 2)腳本編寫:使用psutil庫監控系統資源。 3)任務管理:利用schedule庫調度任務。 Python的易用性和豐富庫支持使其在這些領域中成為首選工具。

要在有限的時間內最大化學習Python的效率,可以使用Python的datetime、time和schedule模塊。 1.datetime模塊用於記錄和規劃學習時間。 2.time模塊幫助設置學習和休息時間。 3.schedule模塊自動化安排每週學習任務。

Python在遊戲和GUI開發中表現出色。 1)遊戲開發使用Pygame,提供繪圖、音頻等功能,適合創建2D遊戲。 2)GUI開發可選擇Tkinter或PyQt,Tkinter簡單易用,PyQt功能豐富,適合專業開發。


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

Atom編輯器mac版下載
最受歡迎的的開源編輯器

PhpStorm Mac 版本
最新(2018.2.1 )專業的PHP整合開發工具

禪工作室 13.0.1
強大的PHP整合開發環境

WebStorm Mac版
好用的JavaScript開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)