問題:同樣的問題,不同的表述,生成的回復(fù)就不一致。

image.png
方法:在seq2seq的的decoder 加入了用戶向量,類似詞向量,利用用戶帳號信息,如性別,方言等訓(xùn)練而成。
實驗數(shù)據(jù)是Twtter的數(shù)據(jù),所以會有這些用戶數(shù)據(jù)。
另一種模型,提出 不同用戶對不同的人說話的方式是不一樣的,重新對用戶進行建模,Vij 表示i對j說話的向量,和上種方法一樣,加到decoder。

li1.png
問題:同樣的問題,不同的表述,生成的回復(fù)就不一致。
方法:在seq2seq的的decoder 加入了用戶向量,類似詞向量,利用用戶帳號信息,如性別,方言等訓(xùn)練而成。
實驗數(shù)據(jù)是Twtter的數(shù)據(jù),所以會有這些用戶數(shù)據(jù)。
另一種模型,提出 不同用戶對不同的人說話的方式是不一樣的,重新對用戶進行建模,Vij 表示i對j說話的向量,和上種方法一樣,加到decoder。