卷積參數(shù)共享原則&池化層(Pooling)原理

說在前頭

理解不清楚的同學,可以看視頻教程(下篇)

資料下載地址

1-1感受卷積神經(jīng)網(wǎng)絡的強大14:55

1-2卷積層詳解12:53

1-3卷積計算流程12:30

1-4卷積核心參數(shù)分析13:13

1-5卷積參數(shù)共享原則08:09

1-6池化層(Pooling)原理08:24

1-7卷積神經(jīng)網(wǎng)絡反向傳播原理14:44

1-8實現(xiàn)卷積層的前向傳播與反向傳播10:19

1-9實現(xiàn)pooling層的前向傳播與反向傳播12:00

1-10經(jīng)典卷及網(wǎng)絡架構(gòu)實例20:35

1-11RNN網(wǎng)絡結(jié)枘08:39

1-12python實現(xiàn)RNN算法33:46

1-13LSTM網(wǎng)絡結(jié)構(gòu)簡介12:36

1-14分類與回歸(Location)任務應用詳解33:30

1-15物休檢實例33:16

1-16如何巧妙設計網(wǎng)絡結(jié)枘21:52

1-17訓練技巧之數(shù)據(jù)增強12.20

1-18訓練技巧之Transfer Learning11:09

1-19深度學習框架caffe簡介20:43

2-0深度學習框架caffe訓練過程20:39

2-1深度學習框架caffe接囗使用實例

全連接的結(jié)構(gòu)有沒有什么弊端呢?

? ??答:參數(shù)過于多,無論從效果還是效率上來說,都存在著很大的問題。

卷積神經(jīng)網(wǎng)路有一個重要的特性,就是他會做一個權(quán)重的共享。

權(quán)重共享:每個特征圖上,每個點,都進行權(quán)重共享。


權(quán)重共享的特性:如上圖所示,每個特征圖上,只有5*5*3個特性,一共75個參數(shù)就OK。還有一個偏置,一共76個參數(shù)。如果提取了十個特征圖,那么只需要760個參數(shù)就可以了,相比傳統(tǒng)的神經(jīng)網(wǎng)絡來說,省了太多。

池化層



假設我們現(xiàn)在有這樣一個特征圖,大小為224*224*64

池化層的意思就是選出一個窗口,之后將窗口里的特征進行壓縮。

壓縮方式也比較簡單,一般來說有兩種壓縮方式,一種是mean方式,一種是max方式。

MAX POOLING 例子 ??

現(xiàn)在我們可以完整的看一下卷積神經(jīng)網(wǎng)絡的工作流程。


step1:假設小車是我們的一個輸入。

step2:將我們輸入的圖像進行一次卷積

step3: 用RELU函數(shù)進行激活

step4:將我們輸入的圖像進行一次卷積

step5:用RELU函數(shù)進行激活

step6:之后進行池化層操作

通過不斷的卷積核不斷的池化操作,要對特征不斷的進行提取。

最后我們拿到了最后的特征FC,我們用最后的特征去做一些任務。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容