先隨便寫一些,方便自己隨時復(fù)習(xí)查看~ 首先先來了解一下RNN以及LSTM~ RNN、LSTM簡介(說實話,這篇文章講的不賴~) 接下來看一看Seq2seq 和 Attention結(jié)構(gòu)~ Seq 2 seq && Attention 自然語言處理中的 Attention 機制總結(jié)