2021-03-17(使用transformer做graph-to-sequence learning)

graph-to-sequence (Graph2Seq) learning的目標是在文本生成任務中將具有圖結(jié)構(gòu)關(guān)系的表達轉(zhuǎn)換到詞序列中,近年來有各種各樣的模型去建模圖結(jié)構(gòu)信息,但是大多數(shù)模型都忽視了兩個不相鄰節(jié)點之間的間接關(guān)系或者將這種間接關(guān)系與直接關(guān)系同等對待。在這篇文章中,我們提出了Heterogeneous Graph Transformer來獨立地建模節(jié)點中的各種關(guān)系,包括間接關(guān)系、直接關(guān)系以及可能的關(guān)系。實驗在四個文本生成和語義翻譯的常用benchmark上取得了強有力的效果。
Heterogeneous Graph Transformer for Graph-to-Sequence Learning

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容