訓(xùn)練
匹配策略和難負樣本挖掘
稱候選框是正的,如果與某個GT有最大的IOU或者IOU大于某個閾值(0.5)。其余候選框是負的。
但這樣的定義會造成大多數(shù)候選框是負的(即正負樣本的顯著不均衡),所以文中使用hard negtive example mining,即將所有負候選框按loss從大到小排序,取top N,使的負:正 ~= 3:1,這樣訓(xùn)練速度更快也更穩(wěn)定。
損失函數(shù)
N是正樣本數(shù)目,如果N=0,則令loss=0,α=1根據(jù)驗證集
候選框設(shè)計
數(shù)據(jù)增益
base network
實驗
可以看到SSD對相似類的辨別能力稍微差點(尤其是動物),這可能SSD對所有的類都共享位置。(也就是說對默認框回歸的時候不是按類回歸的,RCNN系列就是按類回歸的)。
可以看到SSD300對小目標(biāo)的效果不是很好,這點一點都不奇怪,因為小目標(biāo)在頂層只含有非常少的信息。當(dāng)然放大到SSD512的效果就能提升。另一方面,SSD在大目標(biāo)檢測上效果非常好。SSD對不同長寬比的目標(biāo)也很魯棒,因為在各個特征映射上都用不同長寬比的默認框。
可以看出:
1. ?數(shù)據(jù)增益是關(guān)鍵的
2. 更多的默認框是有益的
3. holes算法能讓速度更快~20%
在不同層上使用不同尺度大小的默認框是有益的。