2019WWW-KTUP:Unifying Knowledge Graph Learning and Recommendation: Towards a Better Understanding...

作者以及單位

Yixin Cao (National University of Singapore)
通訊作者 何向南
故事核心:挖掘用戶和項目之間進一步的關系,從而提高性能。

解決問題

問題:設計了一種新的基于翻譯的推薦模型,解決了KG(知識圖譜)的不完整性(現(xiàn)有方法主要假設KG是完整的并且簡單地在實體原始數(shù)據(jù)或嵌入的淺層中轉移KG中的“知識”)。
具體來說:與之前基于KG的推薦方法不同,我們在KG中傳輸關系信息,以便了解用戶喜歡某個項目的原因。例如,如果用戶觀看了由(關系)同一個人(實體)指導的幾部電影,我們可以推斷出導演關系在用戶做出決定時起著關鍵作用,從而有助于理解用戶的偏好。更細的粒度。
結果:提高了理解用戶偏好方面的優(yōu)勢。

研究動機

提出了一個基于翻譯的用戶偏好模型(TUP),以便與KG無縫集成。動機是理解在用戶和項目之間存在多個(隱含的)關系,這進一步揭示了用戶對消費項目的偏好(即原因)。

創(chuàng)新點

我覺得這個圖畫的很好,頂會果然講究看圖說明問題。
圖表達的意思在論文的2.3介紹了:
KG完成的目的是為Robert Zemeckis給出明確關系,如isDirectorOf提供正確的電影(例如,飛越長生Death Becomes Her,不錯的電影),而項目推薦旨在為滿足某些隱含偏好的目標用戶推薦電影(例如,以前只喜歡回來未來12和阿甘,不知道飛越長生),但是知識圖譜指明這個飛越長生也是Robert Zemeckis導演的,雖然飛越長生和回來未來12和阿甘不同風格,也會推薦給用戶。
因此,論文通過聯(lián)合模型填補項目推薦和KG完成之間的差距,系統(tǒng)地研究這兩個任務如何相互影響。


kg和item推薦結合

研究方法

1.提出的方法包括兩個任務:項目推薦和知識圖譜補全。
通過聯(lián)合模型TUP填補項目推薦和KG完整之間的差距,系統(tǒng)地研究這兩個任務如何相互影響。
本文采用的是聯(lián)合訓練。是利用聯(lián)合嵌入的方法,利用kg中的facts作為輔助信息;基于user-item的模擬,填補kg中facts的缺失。

kg融合

項目推薦存在的問題:許多方法將基于相似性的方法擴展到NN,但是,它們仍然存在數(shù)據(jù)稀疏性問題和冷啟動問題?;趦热莸姆椒ㄍㄟ^引入各種輔助信息來處理問題,但是,相關方法嚴重依賴于項目和實體之間的對齊,但仍未考慮實體關系在從KG轉移知識方面的重要性。
知識圖譜補全存在的問題:最近對KG補全,熱衷于研究顯示出對學習實體和關系的低維表征,同時堅持圖的結構知識。粗略地將學習方法分為兩組:平移距離模型和語義匹配模型。平移距離模型的核心思想,即兩個實體之間的關系對應于它們的向量空間中的平移。雖然它簡單而有效,但它有時會令人困惑,因為某些關系可以將一個實體轉換為各種實體,即1對N問題。第二組通過基于相似性的評分函數(shù)匹配實體和關系的語義表示來測量事實的合理性(我看原文好像沒有說這里存在的問題)。

2.提出的模型TUP和KTUP是什么

TUP(Translation-based User Preference):聯(lián)合KG學習,并利用user-item之間的多重隱性關系,揭示用戶的偏好。為了使偏好具有明確的語義,將它們與KG中的關系對齊,項目屬性的類型在用戶決策過程中扮演著至關重要的角色。
KTUP(Knowledge-enhanced TUP):將學習到的關系嵌入和實體嵌入進行了從KG遷移到TUP,同時訓練KG的完整性和推薦任務。聯(lián)合學習user、items、實體和關系的表示。將TUP和TransH進行聯(lián)合學習。

3.這兩個模型具體是干嘛

3.1TUP: 主要考慮偏好誘導和基于超平面的轉化
偏好歸納Preference Induction(我覺得這里的introduction翻譯歸納比較好):設計了兩種偏好誘導策略:一種是從潛在因子P個偏好中選擇一個的Hard Strategy和一種將所有偏好與注意力結合起來的soft Strategy。

Hard Strategy:推薦有效的單一偏好,利用得分函數(shù)(點積)
soft Strategy:通過注意力機制(attention mechanism)來聯(lián)合多重偏好。

基于超平面的轉化:解決不同的用戶可以對不同的項目共享相同的偏好(即,N對N問題)。以前的方法a為了解決一個用戶同時喜歡2個items,那么這兩個Items的用戶嵌入就很接近。我理解的意思是,無論用戶的偏好是什么,兩個item近不近沒有關系,消費者都應該消費另一方,怕理解錯(原文是leading to an incorrect conclusion that a user consuming one shall consume the other, no matter what the user’s preference is.)而b所示的偏差超平面來減輕這種限制,并且僅當它們被投影到特定超平面時才是相似的(在不同平面item沒有關系)。


超平面

3.2 KTUP通過結合實體的KG知識以及關系來擴展基于翻譯的推薦模型TUP

首先,有兩個輸入,一個輸入是item,一個輸入是kg。
其次,有三個層次,最上層次是項目推薦的TUP,包括兩個組件:偏好感應和基于超平面的翻譯。最下層是知識圖譜補全的TransH。中間層 KTUP聯(lián)合學習TUP和TransH,通過轉移實體知識和關系來增強項目和偏好建模。

核心架構

總體目標函數(shù)訓練KTUP,如下所示(Lp是TUP, Lk是KG,總函數(shù)比較好理解):


image.png

結論

TUP能夠對用戶和項目之間的各種隱式關系建模,這揭示了用戶對消費項目的偏好。
KTUP通過對齊的關系和權限進一步增強了模型的可解釋性,并通過聯(lián)合學習提高了兩個任務的性能。
總的來說,我抓大放小突出了這篇文章的工作。如果看懂了,會覺得“可能很簡單”,因為主要思想就是AB兩個模型共同融合做出推薦結果,A負責把item推薦優(yōu)化的更好,B負責把知識圖譜推薦優(yōu)化好,然后弄個超參學習一下,共同決策結果,符合一般的組合模型設計思路。
但其實無論是在TUP和KTUP的設計過程中,細節(jié)考慮的工作特別多,建構的設想也很多,應該是看了不少文獻,把這些文獻的問題拿捏的很準,動機合理,故事說的很好。最后的實驗工作量很大,方方面面都測試到了。投頂會果然是每個細節(jié)都做到完美了。

參考

統(tǒng)一知識圖學習和推薦:更好地理解用戶偏好Unifying Knowledge Graph Learning and Recommendation_tong987735780的博客-CSDN博客

統(tǒng)一知識圖譜學習和建議:更好地理解用戶偏好_XD的學習筆記-CSDN博客

?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
【社區(qū)內容提示】社區(qū)部分內容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發(fā)布,文章內容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內容

友情鏈接更多精彩內容