graph-to-sequence (Graph2Seq) learning的目標是在文本生成任務中將具有圖結(jié)構(gòu)關(guān)系的表達轉(zhuǎn)換到詞序列中,近年來有各種各樣的模型去建模圖結(jié)構(gòu)信息,但是大多數(shù)模型都忽視了兩個不相鄰節(jié)點之間的間接關(guān)系或者將這種間接關(guān)系與直接關(guān)系同等對待。在這篇文章中,我們提出了Heterogeneous Graph Transformer來獨立地建模節(jié)點中的各種關(guān)系,包括間接關(guān)系、直接關(guān)系以及可能的關(guān)系。實驗在四個文本生成和語義翻譯的常用benchmark上取得了強有力的效果。
Heterogeneous Graph Transformer for Graph-to-Sequence Learning
2021-03-17(使用transformer做graph-to-sequence learning)
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。
相關(guān)閱讀更多精彩內(nèi)容
- 文獻地址:https://arxiv.org/abs/1905.01436[https://arxiv.org/a...
- 機器學習(Machine Learning)&深度學習(Deep Learning)資料(Chapter 1) 注...
- 以下內(nèi)容純屬個人見解,歡迎大家交流。發(fā)布于2019 ICDE 1 motivation 1.1 問題 在線健康社區(qū)...
- 推薦指數(shù): 6.0 書籍主旨關(guān)鍵詞:特權(quán)、焦點、注意力、語言聯(lián)想、情景聯(lián)想 觀點: 1.統(tǒng)計學現(xiàn)在叫數(shù)據(jù)分析,社會...