分類(3):人工神經(jīng)網(wǎng)絡(luò)(ANN)

一、感知器

下圖為一個(gè)感知器,單個(gè)神經(jīng)元。


5_06.png

該感知器的算法:


5_07.png

二、多層人工神經(jīng)網(wǎng)絡(luò)

(1)基本概念

神經(jīng)網(wǎng)絡(luò),這里先以前饋神經(jīng)網(wǎng)絡(luò)為介紹,每層為全連接,則對(duì)于2個(gè)神經(jīng)元,參數(shù)為:

(1)w權(quán)值,(2)b偏置,(3)delta 激活函數(shù)。

多層神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)圖,以下為前饋神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)(2層):

5_08.png

常用的 delta 激活函數(shù):
5_09.png

基于梯度下降的權(quán)值更新:
![](http://www.forkosh.com/mathtex.cgi? w_{j}\leftarrow w_{j}-\lambda \frac{\partial E(w)}{\partial w_{j}})
lambda為學(xué)習(xí)率。

(2)反向傳播(back-propagation)

對(duì)于數(shù)據(jù)集,可以使用mini-batch,每次選取一部分,直到將數(shù)據(jù)使用完畢。每次每個(gè)數(shù)據(jù)包括兩個(gè)階段, 向前階段和向后階段。

向前階段:通過(guò)初始權(quán)值、初始偏置和激活函數(shù),每次更新隱藏層和輸出層的值;
向后階段:通過(guò)權(quán)值更新法則,更新權(quán)值和偏置。
直到數(shù)據(jù)使用完畢,或者,權(quán)值更新的差值小于某個(gè)閾值。

(3)神經(jīng)網(wǎng)絡(luò)特點(diǎn)

1、至少含有一個(gè)隱藏層的是一種普適近似(universal approximator),即可以用來(lái)近似任何目標(biāo)函數(shù)。
2、可以處理冗余特征,冗余特征的權(quán)值會(huì)非常小。
3、梯度下降法會(huì)收斂到局部極小值,避免方法可以在權(quán)值更新公式上加上一個(gè)動(dòng)量項(xiàng)(momentum term)

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容