2019-08-15 初始化函數(shù)的重要性

實(shí)驗(yàn)了一下AutoInt模型,其實(shí)在看到論文之前就有類似的想法,但是效果不好(auc很低,大概只有0.6),沒有繼續(xù)嘗試。在看到論文后,發(fā)現(xiàn)和之前的想法一致,于是又重新實(shí)現(xiàn)了一遍,但是效果還是很差。

這次打算仔細(xì)研究一下,就調(diào)整了一下初始化函數(shù),之前的初始化是用的標(biāo)準(zhǔn)的正態(tài)初始化,現(xiàn)在換成了glorot_normal_initializer,結(jié)果一下變好了。

這里推測(cè)是因?yàn)槭褂闷胀ǖ膁nn模型時(shí),最后一層的單元數(shù)一般都比較少,而使用attention時(shí),由于最后一層的向量維度是特征數(shù)*特征維度,一般都會(huì)很高,如果只是用普通的正則,那么加和出來的logits就會(huì)很大,很難進(jìn)行優(yōu)化。如果使用glorot_normal,會(huì)根據(jù)前一層的特征數(shù)決定權(quán)重初始化的范圍,會(huì)使logits落在更合理的范圍,更容易優(yōu)化。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

友情鏈接更多精彩內(nèi)容