轉(zhuǎn):圖像比賽的通用套路

轉(zhuǎn):
采用預(yù)訓(xùn)練模型:可利用ImageNet上的參數(shù)

pytouch Model Zoo提供的模型

AlexNet VGG Inception ResNet DenseNet

下載了Github 下載從Tensorflow inception

Hyperdboard(Githubshang ) 訓(xùn)練記錄曲線(xiàn)

0.0001是較好的學(xué)習(xí)率

80%/20% training/validing

數(shù)據(jù)增強(qiáng):把原來(lái)的樣本用數(shù)據(jù)的手段變得更多,防止過(guò)擬合的方法

提升模型:1、換取參數(shù)量更大的模型

2、不在卷積層改動(dòng),而是在全連接層進(jìn)行改進(jìn)

3、改動(dòng)頂層

4、小模型拼接

5、batchnorm dropout L2

調(diào)參:階段性降低學(xué)習(xí)率

記錄數(shù)據(jù)結(jié)果

模型選擇:

resnet/densenet

VGG/inception v3

TTA:在測(cè)試時(shí)對(duì)一個(gè)樣本的不同增強(qiáng)進(jìn)行預(yù)測(cè),獲得不同結(jié)果

將不同結(jié)果平均或投票獲得最終結(jié)果

k折交叉驗(yàn)證

把數(shù)據(jù) 劃分為5折,4折做訓(xùn)練集,1折做預(yù)測(cè)集

可以得到五個(gè)模型,一起展現(xiàn)性能,共享同一個(gè)劃分,控制變量

模型集成階段:把五個(gè)模型集成到一起,獲得五個(gè)概率,

用ensemle selection的 average bagging 概率矩陣模型

attention stacking

stacking 每一個(gè)模型的每一個(gè)類(lèi)上都有一個(gè)權(quán)重,不同模型對(duì)不同類(lèi)的表現(xiàn)不一樣

每一個(gè)類(lèi)單獨(dú)做一個(gè)單分類(lèi)器,去預(yù)測(cè)17個(gè)結(jié)果,

對(duì)每一個(gè)類(lèi)做多模型的softmax,使得參數(shù)加權(quán)為1,則其輸出為其權(quán)重

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀(guān)點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容