pytorch【模型模塊】四、nn網(wǎng)絡(luò)層:池化層-線性層-激活函數(shù)層

一、池化層

最大值池化和平均池化(池化可用于冗余信息的剔除,以及減少計(jì)算量)

1、最大池化nn.MaxPool2d

用于記錄最大值像素所在位置的索引,在最大值反池化上采樣的時(shí)候使用(把對(duì)應(yīng)的像素值放在對(duì)應(yīng)的位置上)。

2、平均池化nn.AvgPool2d

divisor_override是除法因子,比如它為10時(shí),即使我們用的2*2的池化窗口,平均時(shí),也不是除以4,而是除以10。

3、最大值反池化nn.MaxUnpool2d

二、線性層

上圖省略了偏置。

三、激活函數(shù)層

如果沒有激活函數(shù)層,多個(gè)線性層疊加和一個(gè)線性層就沒有區(qū)別:

1、sigmoid函數(shù)
2、tanh函數(shù)
3、ReLU函數(shù)(ReLU:修正線性單元)

ReLU的改進(jìn):

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容