CNN

卷積神經(jīng)網(wǎng)絡(Convolution Neural Network)

基于全連接層和CNN的神經(jīng)網(wǎng)絡示意圖

基于全連接的神經(jīng)網(wǎng)絡
基于CNN的神經(jīng)網(wǎng)絡

全連接的局限性

由于全連接所有數(shù)據(jù)會被拉平成1維數(shù)據(jù),數(shù)據(jù)的"形狀"會被忽視掉,所以無法利用與形狀相關(guān)的信息.
而卷積層會以原始維度(圖像就是3維)接收輸入數(shù)據(jù),同樣以3維形式輸出到下一層,因此有可能正確理解圖像的形狀數(shù)據(jù).

卷積運算

卷積運算

帶偏置的卷積運算

其中濾波器(Filter)又稱"核"

填充

幅度為1的填充

幅度為1的填充(padding),表示在輸入矩陣周圍填充1像素的'0',填充后矩陣變成(6,6)的形狀.填充的主要目的是為了使輸出數(shù)據(jù)的形狀和輸入數(shù)據(jù)一致

步幅

步幅為2的卷積運算

應用濾波器窗口的間隔變?yōu)?個元素.

已知填充和步幅,輸入形狀和輸出形狀的關(guān)系

假設(shè)輸出大小為(H,W),濾波器大小為(FH,FW),輸出大小為(OH,OW),填充為P,步幅為S,則存在以下關(guān)系
OH = \frac{H+2P-FH}{S} + 1 \\ OW = \frac{W+2P-FW}{S}+1

三維數(shù)據(jù)的卷積運算

三維數(shù)據(jù)的卷積運算.png

三維數(shù)據(jù)卷積運算過程

單個濾波器,最后輸出通道數(shù)為1的特征圖

N個濾波器,最后輸出通道數(shù)為N的特征圖

帶偏置的卷積運算處理流

池化層

池化是縮小高、長方向上的空間的運算.下圖展示了步幅為2的Max池化,即每次從2*2的目標區(qū)域中獲取最大值的操作,一般來說初花的窗口大小會和步幅設(shè)定成相同的值.池化對微小的數(shù)據(jù)偏差具有魯棒性.


窗口為2*2,步幅為2的Max池化
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關(guān)閱讀更多精彩內(nèi)容

  • 卷積神經(jīng)網(wǎng)絡(CNN) 1.神經(jīng)網(wǎng)絡結(jié)構(gòu)示意圖如下 相比于普通的神經(jīng)網(wǎng)絡,卷積神經(jīng)網(wǎng)絡多了卷積層以及池化層,還增加...
    Evermemo閱讀 8,120評論 1 0
  • CNN on TensorFlow 本文大部分內(nèi)容均參考于: An Intuitive Explanation o...
    _Randolph_閱讀 8,009評論 2 31
  • 2016-11-08陳偉才人工智能學堂 在TensorFlow入門教程中,我們采用了 Softmax 算法深度學習...
    chenweicai閱讀 5,969評論 0 8
  • 我對杰杰爸說:“讓他哭半小時吧!我們?nèi)讨??!?我默默地拉著杰杰往上走,一點不在意他的哭聲,就讓他發(fā)泄一下。不出10...
    南北芪閱讀 268評論 0 3
  • 說實話,今天的經(jīng)歷從來沒有過。 一個是深圳的頒獎領(lǐng)導全部失業(yè)。一二三等獎的獎旗在深圳,而獲獎者都在非深圳,最后頒獎...
    Towain閱讀 277評論 0 0

友情鏈接更多精彩內(nèi)容