方差bias與偏差variance--過擬合欠擬合

E{1/m(x1+x2+...+xn)] = E(X)

var{1/m(x1+x2+...+xn)} = 1/mVar(X)

如果均值為E(x),方差過大說明欠擬合,只要做無數(shù)次,能保證均值(無偏),方差減小

總結(jié)

低Bias表示離圓心近

高Bias表示里圓心遠

高var表示學習結(jié)果分散

低var表示學習結(jié)果集中

Bias越低模型越復雜,可以理解為在訓練集上的表現(xiàn)與訓練值很接近,容易過擬合

variance是在測試集上的表現(xiàn)反之要提高泛化能力,就要降低variance,這樣模型就會簡單,容易欠擬合

因此,我們想要找到低bias(可以想成是殘差很?。?/b>和高variance(穩(wěn)定,泛化能力高)的交叉點就是總誤差最小


Bagging能夠減少訓練方差(variance),對于不剪枝的決策樹、神經(jīng)網(wǎng)絡(luò)學習器有良好的集成效果,增加穩(wěn)定性

Boosting能減少偏差(Bias),能夠基于泛化能力較弱的學習器構(gòu)造強學習器,提高正確率


---原因

1. 變量少

2. 特征多

3. 函數(shù)過于復雜

處理方法:

1. 降維

2.正則化

除了GBDT中使用關(guān)于分類器的一階導數(shù)進行學習之外,也可以借鑒(逆)牛頓的思路使用二階導數(shù)學習弱分類器,比如XGboost

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容