階段1—神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)

經(jīng)過一周的學(xué)習(xí),我基本掌握了深層神經(jīng)網(wǎng)絡(luò)的搭建方法,以下是我的一點總結(jié):

一、深度學(xué)習(xí)分以下6個基本步驟:

1.初始化參數(shù)W和b(參數(shù)的初始值必須隨機;權(quán)重值W需要根據(jù)訓(xùn)練集數(shù)據(jù)大小去調(diào)整)

2.向前傳播(除了最后一層用sigmod函數(shù),前面都是用relu或其他更好的函數(shù))

3.計算損失(這里就是套公式)

4.向后傳播(從最后一層開始,一層一層向前面求導(dǎo),得到每層的dW和db)

5.向后傳播(根據(jù)每層的dW和db,用梯度下降法去更新參數(shù)W和b)

6.預(yù)測(將最后得到的參數(shù)代入第2步的向前傳播函數(shù),最終求出預(yù)測值Y_prediction)

二、神經(jīng)網(wǎng)絡(luò)搭建好后,非常關(guān)鍵的一步就是調(diào)參數(shù),使得損失能更好地收斂。有幾個參數(shù)是比較關(guān)鍵的:

1、學(xué)習(xí)率;

2、網(wǎng)絡(luò)層數(shù)和各層節(jié)點;

3、W的初始值設(shè)置

通過調(diào)試可以發(fā)現(xiàn),以上幾個參數(shù)都是直接影響損失函數(shù)收斂的,那應(yīng)該按照什么準則去調(diào)這些參數(shù),我目前還沒發(fā)現(xiàn)什么規(guī)律和原理,有待進一步的學(xué)習(xí)和研究探索。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容