如何在Deep Generative Model中加入Memory機制

文章地址:https://arxiv.org/pdf/1602.07416v2.pdf

文章的作者來自于清華的Chongxuan Li,Jun Zhu和Bo Zhang。

這篇文章的核心內(nèi)容是想在Deep Generative Model(DGM)的基礎(chǔ)上加上Memory機制。Motivation的點是,傳統(tǒng)的DGM比較能夠抓住數(shù)據(jù)的High-level Feature。但是利用這些High Level Feature,還是不能很好得產(chǎn)生實際的數(shù)據(jù)。作者們認(rèn)為,部分原因是因為缺少機制能夠把一些細(xì)節(jié)給記下來。這篇文章就是想能否利用Memory,外加Attention的機制,使得數(shù)據(jù)的部分細(xì)節(jié)能夠在每一層得到保存。

作者們在傳統(tǒng)的DGM層與層之間加入了Memory和Attention機制。具體來說,就是每一層的單一Hidden Layer,被兩個不同的Hidden Layer所替代。模型首先從Input Layer產(chǎn)生H1,然后利用一個每一層特有的Memory外加每一層特有的Attention,產(chǎn)生一個H2。最后的輸出H,是這兩個H1和H2的一個函數(shù)。

學(xué)習(xí)過程來講,文章主要還是擴展了Variational Approximation的方法。

從實驗效果來說,特別是隨機產(chǎn)生數(shù)據(jù),提出的模型明顯能夠產(chǎn)生更加真實的數(shù)據(jù)。

更多關(guān)于聊天機器人(Chatbots)的技術(shù)和產(chǎn)品的分享可以關(guān)注ChatbotsChina微博,每日都會有干活分享!

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容