在隨機(jī)森林bagging法中可以發(fā)現(xiàn)booststrap每次約有1/3的樣本不會(huì)出現(xiàn)在bootstrap所采集的樣本集合中,故沒(méi)有參加決策樹(shù)的建立,這些數(shù)據(jù)稱為袋外數(shù)據(jù)oob,用于取代測(cè)試集誤差估計(jì)方法,可用于模型的驗(yàn)證。
下面先介紹下oob的使用,其中(x,y)代表輸入的樣本和label,g表示的是構(gòu)建的樹(shù)。

上圖中(xN,yN)沒(méi)有用于g2、g3、gt,所以(xN,yN)可以作為g2、g3、gt的驗(yàn)證數(shù)據(jù),然后用oob數(shù)據(jù)作為輸入,輸入到模型中,然后投票,少數(shù)服從多數(shù)。同理,對(duì)于(x1,y1)、(x2,y2)等也存在同樣的計(jì)算,最終計(jì)算評(píng)判錯(cuò)誤的樣本占比,就是oob-error.
所以oob可以用來(lái)衡量模型的好壞。
同時(shí),也可以引出隨機(jī)森林輸出特征重要性的原理,如果特征i對(duì)于模型是有利的,那么第i維特征置換成隨機(jī)值,將會(huì)降低模型的性能,也就是會(huì)使oob-error變大。