CS231N Lecture9: CNN Architectures

常用的CNN結(jié)構(gòu)

1. LeNet-5

用于數(shù)字識別


2. AlexNet

(圖中第一層的輸出被分為了兩部分,因為作者在做實驗使用GTX580,放不下這么大的網(wǎng)絡(luò),所以用了兩個GPU,分別放一半的網(wǎng)絡(luò)結(jié)構(gòu))

即如下結(jié)構(gòu):

輸入:227 x 227 x 3的圖像

第一層:(CONV1):96個 11 x 11的卷積核,步長為4。?

????????輸出為 55 x 55 x 96(Hint:(227 - 11)/4 + 1 = 55)。參數(shù)個數(shù)為(11*11*3)*96 = 35K。

第二層:(POOL1):3 x 3的filter,步長為2。輸出為:27 x 27 x 96。參數(shù)個數(shù)為0。

3. VGGNet

使用更深的網(wǎng)絡(luò),更小的filter

使用更小filter(3 x 3 conv)的原因:stack of three 3 x 3 conv (stride 1) layers has same effective receptive field as one 7 x 7 conv layer。但是參數(shù)個數(shù)更少

effective receptive field:http://blog.csdn.net/gengsijing4459/article/details/78522997

AlexNet有6000萬個參數(shù)

4. GoogleNet

計算很高效,沒有全聯(lián)接層。只有500萬的參數(shù),AlexNet是它的12倍。

"Inception module": design a good local network topology(network with a network) and then stack these modules on top of each other.

平行計算,所以能提升計算效率。

這種方法的問題:


5. ResNet

residual connection


各種方法的結(jié)果:

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容