深入決策樹算法

系統(tǒng)講解了DT 算法理論


? 主要內(nèi)容:


? ? ? ? ? 1、決策樹算法

? ? ? ? ? 2、Entroy

? ? ? ? ? 3、Information Gain


例圖

DT 一般都是非線性分界面


sklearn 運(yùn)行效果圖



參數(shù)的作用

min_samples_split

一直區(qū)分到集合只有兩個(gè)元素,可以忽略

min_samples_split 太小導(dǎo)致overfitting


Entropy



數(shù)學(xué)推倒






Information Gain

信息增益,,主要用來算多個(gè)feature時(shí)使用哪個(gè)feature 來分割界面





DT算法的計(jì)算核心一般是計(jì)算各個(gè)feature 的information gain 決定采用哪個(gè)feature 分割平面以及怎樣分割。


DT 算法的優(yōu)缺點(diǎn):

easy use

圖形化比較直觀

容易o(hù)verfiting


人工智能技術(shù)文章list

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • Machine Learning in Python (Scikit-learn)-(No.1) 作者:范淼(人人...
    hzyido閱讀 6,488評(píng)論 2 13
  • 昨天分享了每天三件事這個(gè)工具,也說說我在使用時(shí)的困惑。 三件事不好寫:太難的事可能不好完成,容易拖延。拖延兩次,內(nèi)...
    Panda盼子閱讀 345評(píng)論 1 0
  • 他們相鄰而居,她在他的高處。 他們相識(shí)在萬般美好的初春,一見,如故。 于是,每個(gè)清晨,她都會(huì)在一片婆娑如織中尋找他...
    零碎的片段閱讀 401評(píng)論 1 2
  • 我是誰 我在哪 漸漸入睡 游于藍(lán)色 睡在綠色 翱往白色 你笑了 然后你醒了 對(duì)她說 你好 我在夢(mèng)里 其實(shí) 你喜歡她
    冬沐槿閱讀 204評(píng)論 0 2
  • 本文圖片源自百度 今日去廣州辦事回來便去了美利達(dá)專賣店買了一臺(tái)山地車2300RMB,然后發(fā)了條朋友圈,收到的回復(fù)讓...
    三米GZ閱讀 1,023評(píng)論 0 0

友情鏈接更多精彩內(nèi)容