說在前頭
理解不清楚的同學,可以看視頻教程(下篇)
1-1感受卷積神經(jīng)網(wǎng)絡的強大14:55
1-2卷積層詳解12:53
1-3卷積計算流程12:30
1-4卷積核心參數(shù)分析13:13
1-5卷積參數(shù)共享原則08:09
1-6池化層(Pooling)原理08:24
1-7卷積神經(jīng)網(wǎng)絡反向傳播原理14:44
1-8實現(xiàn)卷積層的前向傳播與反向傳播10:19
1-9實現(xiàn)pooling層的前向傳播與反向傳播12:00
1-10經(jīng)典卷及網(wǎng)絡架構(gòu)實例20:35
1-11RNN網(wǎng)絡結(jié)枘08:39
1-12python實現(xiàn)RNN算法33:46
1-13LSTM網(wǎng)絡結(jié)構(gòu)簡介12:36
1-14分類與回歸(Location)任務應用詳解33:30
1-15物休檢實例33:16
1-16如何巧妙設計網(wǎng)絡結(jié)枘21:52
1-17訓練技巧之數(shù)據(jù)增強12.20
1-18訓練技巧之Transfer Learning11:09
1-19深度學習框架caffe簡介20:43
2-0深度學習框架caffe訓練過程20:39
2-1深度學習框架caffe接囗使用實例
全連接的結(jié)構(gòu)有沒有什么弊端呢?
? ??答:參數(shù)過于多,無論從效果還是效率上來說,都存在著很大的問題。
卷積神經(jīng)網(wǎng)路有一個重要的特性,就是他會做一個權(quán)重的共享。
權(quán)重共享:每個特征圖上,每個點,都進行權(quán)重共享。

權(quán)重共享的特性:如上圖所示,每個特征圖上,只有5*5*3個特性,一共75個參數(shù)就OK。還有一個偏置,一共76個參數(shù)。如果提取了十個特征圖,那么只需要760個參數(shù)就可以了,相比傳統(tǒng)的神經(jīng)網(wǎng)絡來說,省了太多。
池化層


假設我們現(xiàn)在有這樣一個特征圖,大小為224*224*64
池化層的意思就是選出一個窗口,之后將窗口里的特征進行壓縮。
壓縮方式也比較簡單,一般來說有兩種壓縮方式,一種是mean方式,一種是max方式。

現(xiàn)在我們可以完整的看一下卷積神經(jīng)網(wǎng)絡的工作流程。

step1:假設小車是我們的一個輸入。
step2:將我們輸入的圖像進行一次卷積
step3: 用RELU函數(shù)進行激活
step4:將我們輸入的圖像進行一次卷積
step5:用RELU函數(shù)進行激活
step6:之后進行池化層操作
通過不斷的卷積核不斷的池化操作,要對特征不斷的進行提取。
最后我們拿到了最后的特征FC,我們用最后的特征去做一些任務。