論文鏈接:http://www.sentic.net/sentic-lstm.pdf
會議:2018 AAAI
文章對Attention機制的解釋:Such mechanism takes an external memory and representations of a sequence as input and produces a probability distribution quantifying the concerns in each position of the sequence.

筆記

筆記
本文的方法:

架構(gòu)圖
先將句子送到雙向LSTM中,接著是attention component,target級別的attention的輸出作為target-level的representation,接著這個target representation和aspect embedding一起計算句子級別的attention,將整個句子轉(zhuǎn)換為一個vecotr。
1. Target-level Attention
我的理解。。。原文中沒有說H’ 是怎么計算的,感覺是還有另一個LSTM去計算target的隱狀態(tài)
Self-attention:

Target-level attention
2. Sentence-level Attention Model

Sentence-level Attention
3. Commonsense Knowledge
常識知識,使用SenticNet
4. Sentic LSTM

增加SenticNet的信息
我的理解:本文關(guān)注一個新的問題,就是target和aspect級別的情感分析。提出了層次化的attention去做分類,并且加入了SenticNet的一些外部信息,增強了LSTM的結(jié)構(gòu)。