Inception 系列 2021-03-22

對Inception系列的三篇論文,5個模型進(jìn)行一個淺顯的總結(jié)對比。來看看系列之首的第一個參考文獻(xiàn)——we need to go deeper, 這在這個系列中有兩個意思,從直接意義上,GoogLeNet有22層參數(shù)層,從另一個維度上,Inception使用了分組卷積對模型進(jìn)行加寬,用不同尺寸的核分路進(jìn)行卷積后拼接起來,這也是Inception系列最大的特色。

GoogLeNet引用的表情包

2014 Inception-v1:多支路卷積

因為不同尺寸的卷積核(藍(lán)色框)擁有不同大小的感受野,所以更局部或更全局的特征都可以被考慮到。 左邊樸素的做法在模型加深后因為不斷的拼接通道數(shù)會大大增加,而黃色框表示的1*1卷積可以用來限制不斷拼接增多的通道數(shù)。

而整個模型就是通過對這樣的基礎(chǔ)模塊進(jìn)行堆疊得到的,這一點和VGG類似。和其他深度神經(jīng)網(wǎng)絡(luò)一樣GoogLeNet面臨著梯度消亡問題,批量正則化是在V2才被引入的,V1最終的結(jié)果由最終的分類器和兩個輔助分類器的結(jié)果加權(quán)求和得到,在原論文中賦予給了每個輔助分類器0.3的權(quán)重.

Inception模塊優(yōu)化時間/空間復(fù)雜度:https://zhuanlan.zhihu.com/p/31575074

2015 Inception-v2,v3
Rethinking the Inception Architecture for Computer Vision:

分享了四項基本的設(shè)計原則:

  • 避免representational bottlenecks ,尤其是在淺層。
  • 非線性可以加速訓(xùn)練,因為高維的表征更容易被處理。
  • 在空間整合(卷積?)之前降維不會影像表現(xiàn)。
  • 平衡寬度和深度。

引入Batch Normalization(BN)技術(shù),兩個分解 減少參數(shù)量:

  • 把大卷積核分解為連續(xù)的小卷積
  • 把對稱的卷積核分解為不對稱的卷積,但是這不宜在淺層使用,作者在實踐中發(fā)現(xiàn)特征圖尺寸在12和20之間時,不對稱分解的表現(xiàn)很好
5×5卷積分解為兩個3×3卷積

不對稱卷積(空間分解)

分解的目的是在提升表現(xiàn)的同時盡量降低計算量,V2對比V1加深到了42層,但是計算成本只提升為2.5倍。
V3:
對比V2應(yīng)用了這幾個改進(jìn):
RMSProp 是一種優(yōu)化算法
Label Smoothing 正則化方法
V2對根莖部分的第一個7*7卷積層進(jìn)行分解,
在輔助分類器中使用了批量正則化,

2016 Inception-v4, Inception-ResNet

Inception-v4:
Inception-ResNet:


Inception-ResNet, 和V4的區(qū)別主要在于紅色模塊,詳見論文
引入殘差連接, 激活縮放用于防止模型死亡
更快收斂, 但是最終的表現(xiàn)差不多,這里不得不提到Inception模塊的一個細(xì)節(jié):
統(tǒng)一尺度下的基本模塊,1*1 卷積提供了淺層的特征經(jīng)過很少的變化就能直達(dá)深層的路徑,而這樣特征復(fù)用的思想和resnet其實是很類似的
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容