Colah 的《Understanding LSTM Networks》筆記

最近做畢設(shè)讀論文讀得心累,很多論文公式一堆提升逼格,很多想法也不具普適性,好像大家都在各玩各的。
前兩日看到知乎一個(gè)問題 如何評(píng)價(jià)深度學(xué)習(xí)文章平臺(tái)Distill?,好奇點(diǎn)進(jìn)一看究竟。啊真是通透易懂,平易近人。因?yàn)樽罱谘芯縍eservoir Comuting和ESN的東西,就著重看了一下RNN一塊,做個(gè)小筆記。

Recurrent Neural Networks

人類的認(rèn)知是連續(xù)的,認(rèn)知事物總有先前經(jīng)驗(yàn),不會(huì)將所有事都重新思考。RNN是一種能讓信息暫存的神經(jīng)網(wǎng)絡(luò),它有l(wèi)oops,loop能夠?qū)⑿畔⒉粩嗤乱粋€(gè)網(wǎng)絡(luò)狀態(tài)傳。


LSTM是一種特殊的RNN,表現(xiàn)突出。

The Problem of Long-Term Dependencies

比如說要預(yù)測(cè) “the clouds are in the ___”,這個(gè)填空很簡單肯定是sky,這是RNN能做的一件對(duì)過去信息需求量(通俗地說就是經(jīng)驗(yàn))比較小的事情。但是如果對(duì)過去信息需求量大的話,RNN表現(xiàn)不太好。但是LSTM就超棒der。

LSTM Networks

LSTMs are explicitly designed to avoid the long-term dependency problem.

標(biāo)準(zhǔn)RNN的循環(huán)模塊只有單層
LSTM的循環(huán)模塊有四個(gè)相互作用層

根據(jù)LSTM的模型圖,\sigma 是介于0~1之間,決定保留多少信息來保障cell的狀態(tài),決定每個(gè)狀態(tài)下的輸出。

涉及到具體公式就不往下寫了。這是一篇為了讓爸媽看懂我在干啥的小筆記~

原文:Understanding LSTM Networks

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容