xgboost學習筆記 + GBDT

從泰勒公式說起

泰勒公式的作用.png
  • 泰勒公式損失函數(shù)存在二階導數(shù)的時候,可以提供參數(shù)下降的方向


    梯度下降法的泰勒展開理解.png
  • 為什么選擇負梯度方向的原因通過泰勒的方式解釋一下


    牛頓下降法原理.png
  • 使用牛頓下降法來逼近誤差的方法,需要二階可導


    引入函數(shù)空間這個概念.png
  • 引入函數(shù)空間,通過類比的方法來構造新的子樹。就是一個更新迭代的一堆樹。通過引入一顆新的樹來減小誤差。


    boosting.png
  • boosting的思想很牛逼,但其實就是一種參數(shù)更新的思路,但是這個參數(shù)是一個子樹。通過生成一顆子樹疊加到之前的子樹上來減小損失函數(shù)。
  • 基分類器是回歸樹有很多優(yōu)點:
    1.解釋性強
    2.處理混合特征
    3.伸縮不變性(這個不怎么理解)
    4.對異常點具有非常好的魯棒性
    5.。。。。
    總之,就是解釋能力比較好


    BOOST Decision Tree.png
  • 首先類似于梯度下降,也有一個學習率
  • 同時求解方法是貪心的


    利用梯度產(chǎn)生子樹.png

    xgboost.png
  • 算法上最大的特點
    1.通過二階導來選擇更新方向
    2.加入正則項來對構建的樹,加入貝葉斯先驗。L2正則意味著:先驗高斯分布,
    L1正則:瑞斯分布


    需要最小化的目標函數(shù).png

    image.png
  • 正則化的先驗解釋


    誤差函數(shù).png

    一些列的變換.png

    變換2.png

    節(jié)點數(shù)值.png
  • 得出了樹的子葉節(jié)點的合理的權值,同時,也得出了正確的損失函數(shù)。關于第t顆樹的。


    建樹.png
  • 傳統(tǒng)的方法都是先建樹,在加入正則剪枝。


    建樹_xgboost.png
  • 這種建樹的方式考慮了正則化。
?著作權歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容