深度學(xué)習之神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)——殘差網(wǎng)絡(luò)ResNet

姓名:周小蓬 16019110037

轉(zhuǎn)載自:http://blog.csdn.net/isuccess88/article/details/54588131

[嵌牛導(dǎo)讀]

殘差網(wǎng)絡(luò)Residual Network自提出之日起就聲名大振,成為大家在介紹深度學(xué)習近年上位史時不得不講的網(wǎng)絡(luò)結(jié)構(gòu)。目前引用量已達1900。

[嵌牛鼻子]

人工智能

[嵌牛提問]

如何學(xué)習殘差網(wǎng)絡(luò)以及步驟

[嵌牛正文]

閱讀原文,會發(fā)現(xiàn)通篇出現(xiàn)次數(shù)非常多的一個詞”degradation”,之前的深度學(xué)習模型深度加深到一定程度后如果繼續(xù)加深會使得損失增加(準確率降低),下圖表明了誤差和模型深度之間的關(guān)系:

可以看到56層的模型無論是訓(xùn)練誤差還是測試誤差都比26層的要大。為什么會出現(xiàn)這種情況?假設(shè)現(xiàn)在有一個稍淺的性能比較好的網(wǎng)絡(luò),現(xiàn)在在它后面加上多層網(wǎng)絡(luò),并且我們假設(shè)添加的多層網(wǎng)絡(luò)擬合的是恒等函數(shù),那么新網(wǎng)絡(luò)的性能應(yīng)該和原網(wǎng)絡(luò)一樣好才對。可是實驗證明新網(wǎng)絡(luò)的準確率降低了,這說明額外的多層網(wǎng)絡(luò)并不能很好地擬合恒等函數(shù)??偨Y(jié)成數(shù)學(xué)表達就是:假設(shè)現(xiàn)在我們想用多層網(wǎng)絡(luò)擬合函數(shù)H(x)=x,但是訓(xùn)練的神經(jīng)網(wǎng)絡(luò)找不到這個最優(yōu)解。

現(xiàn)在我們粗暴的令

H(x)=F(x)+x,(1)

現(xiàn)在只需要讓F(x)=0就可以得到H(x)=x。而公式(1)的一種網(wǎng)絡(luò)結(jié)構(gòu)如下:

上面的F(x)也可以是其他的網(wǎng)絡(luò)結(jié)構(gòu),如卷積層。

這樣由圖2中的殘差塊組成的殘差網(wǎng)絡(luò)在沒有增加參數(shù)數(shù)量和計算復(fù)雜度的情況下,解決了”degradation”問題,從而使得網(wǎng)絡(luò)可以非常非常深。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容