Pytorch 任務(wù)二

這是一個(gè)簡(jiǎn)單的前饋神經(jīng)網(wǎng)絡(luò)(feed-forward network)。它接受一個(gè)輸入,然后將它送入下一層,一層接一層的傳遞,最后給出輸出。

一個(gè)神經(jīng)網(wǎng)絡(luò)的典型訓(xùn)練過(guò)程如下:

定義包含一些可學(xué)習(xí)參數(shù)(或者叫權(quán)重)的神經(jīng)網(wǎng)絡(luò)

在輸入數(shù)據(jù)集上迭代

通過(guò)網(wǎng)絡(luò)處理輸入

計(jì)算損失(輸出和正確答案的距離)

將梯度反向傳播給網(wǎng)絡(luò)的參數(shù)

更新網(wǎng)絡(luò)的權(quán)重,一般使用一個(gè)簡(jiǎn)單的規(guī)則:weight = weight - learning_rate * gradient


要構(gòu)造一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),首先考慮用numpy 來(lái)實(shí)現(xiàn)。


如果用pytorch實(shí)現(xiàn):


如果使用pytorch.nn


?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容