
采用了hierarchy的架構(gòu),即兩層encoder(rnn_size取200),分別代表word-level和sentence-level。
亮點(diǎn)在于,兩層attention中都引入了user和product信息:


Wu和Wp分別將user vector 和 product vector 壓縮到continuous dense vector(相當(dāng)于user embedding 和 product embedding,200維),串聯(lián)lstm encoder的隱狀態(tài),通過(guò)一個(gè)非線性激發(fā)函數(shù)后帶上權(quán)重v(相當(dāng)于一維fc),再通過(guò)softmax歸一化即構(gòu)成attention權(quán)重。
輸出層沒(méi)什么變化,tanh激發(fā)+softmax+crossentropy
評(píng)估:

總結(jié):
本文的亮點(diǎn)就是把user embedding和 product embedding加入到attention中,從結(jié)構(gòu)上來(lái)看, 對(duì)比傳統(tǒng)的attention機(jī)制:

如果把對(duì)hidden cell的投影也看作embedding,那么就是在hidden embedding的基礎(chǔ)上串聯(lián)user embedding和 product embedding,再加上一層一維fc。引入product 和user信息的有效性,可以簡(jiǎn)述如下:
? 用戶-情感一致性:某些用戶傾向于打高分,有些打低分
? 產(chǎn)品-情感一致性:好產(chǎn)品得高分,壞產(chǎn)品得低分
? 用戶-文本一致性:用戶使用相同文本表達(dá)不同的感情
? 產(chǎn)品-文本一致性:相同文本評(píng)論不同產(chǎn)品代表不同的感情