python實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)

主要提問(wèn)點(diǎn)

  • 寫(xiě)出softmax損失函數(shù)代碼(python),以及交叉熵?fù)p失函數(shù)
  • 判斷和消除過(guò)擬合的方法
    dropout,正則項(xiàng),還有其他的方法?
  • 正則化的方法與原理
    L0,L1,正則化
  • batchnorm的原理,要看論文
  • 手推正向傳播反向傳播的向量表達(dá)式
    梯度消失的原因,除了梯度爆炸/消失以外還應(yīng)該考慮權(quán)值的影響(推完公式里面就能看出來(lái),因?yàn)樗擎準(zhǔn)角髮?dǎo),偏導(dǎo)數(shù)相乘)。
  • 動(dòng)量更新
    區(qū)別于sgd的原因
  • 寫(xiě)出幾種常見(jiàn)的神經(jīng)網(wǎng)絡(luò)
    VGGNet、ResNet
  • Relu激活函數(shù)也不能解決梯度消失問(wèn)題。
    會(huì)使得神經(jīng)元失活
  • 基本超參數(shù)的調(diào)整方式(調(diào)參)
  • 何凱明,提出resnet之前的論文有無(wú)了解
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容