AdaBoost(2018-05-05)

  1. ensemble learning 集成學(xué)習(xí)
  • 定義:集成學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的示例;多個學(xué)習(xí)者在學(xué)習(xí)解決同一個問題,多個學(xué)習(xí)模型的效果肯定優(yōu)于一個學(xué)習(xí)模型。


    image.png
  1. 集成學(xué)習(xí)的常見類型
  • Bagging(Random Forest):構(gòu)造若干個獨立的模型,然后去所有模型預(yù)測值的平均值
  • Boosting(Gradient boosting, adaboosting):時序構(gòu)造模型,每一個繼任模型都需要減少之前模型的偏移量。即將若干個弱模型合成,產(chǎn)生一個強(qiáng)有力的集成模型。


    image.png
  1. Bagging
  • 思想: 訓(xùn)練集分成若干個子集,針對若干個子集并行進(jìn)行模型訓(xùn)練,對預(yù)測值平均化。


    image.png
  1. Boosting
  • 思想:若干個弱模型組成一個強(qiáng)模型,每個模型都依賴于前個模型。


    image.png
  1. Bagging和Boosting區(qū)別
  • 三張圖


    image.png

    image.png

    image.png
  1. AdaBoost
  • 定義: 是一種調(diào)整式Boosting方法。


    image.png
image.png
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容