新聞推薦(11):Fine-grained Interest Matching for Neural News Recommendation

前言

  • ACL2020的一篇長文,主要介紹基于匹配思想進行新聞推薦改進的工作
  • 該團隊相關(guān)工作詳見個人專題《新聞推薦研究》

  • 背景/問題:

    1. 新聞推薦的核心是用戶興趣與候選新聞的匹配問題(matching)
    2. 重要的新聞?wù)Z義特征也隱含在不同粒度(granularity)的文本段落中。
    3. 當前研究把用戶表征成單一向量與候選新聞進行匹配,可能損失很多推薦的細粒度特征
  • 主要工作/關(guān)鍵創(chuàng)新:

    1. 表征方面:提出多層級的用戶/新聞表征,使用層級擴張卷積來構(gòu)建表征(hierarchical dilated convolutions)
    2. 匹配方面:提出細粒度的興趣匹配機制(Fine-grained Interest Matching),在多層表征的基礎(chǔ)上構(gòu)建不同粒度的文本段(特征)相似度矩陣,得到多通道的匹配度矩陣,使用3D-conv來提取高階重要特征來預測用戶和新聞的匹配程度(點擊概率)

模型

整體模型架構(gòu)如上所示

1. 新聞表征模塊

主要使用層級擴張卷積,每層卷積得到的結(jié)果都可以作為不同粒度下的新聞特征,dilate rate越高,越能提取長期依賴;低dilate rate可以發(fā)現(xiàn)新聞的詞匯和語義特征。

擴張卷積(空洞卷積)在NLP和CV中均有應用,具體的輸入包括新聞的內(nèi)容詞匯和類別信息,文中將內(nèi)容詞和類別組成單詞序列,放入HDC處理得到最終的多層新聞表征,即多粒度新聞表征
每層N個單詞就會得到N個特征向量(向量維度由卷積filter數(shù)量決定)

同時,計算路徑大大縮短,沒有使用池化等下采樣方法,降低了信息丟失的負面影響。在并行能力在減少內(nèi)存消耗方面優(yōu)于RNN和基于注意力的方法。

2. 交叉交互模塊 Cross Interation

該模塊就是將候選新聞與用戶瀏覽過的歷史新聞都進行兩兩相似度計算(語義相關(guān)性),相同的特征層級進行詞匯級別的相似度計算,如下式所示,利用點積計算第k個新聞的第i個詞與候選新聞的第j個詞的相關(guān)性
對于n個歷史新聞,可以得到n個相似度模塊,(L+1)N_dkN_c,N_dk與N_c分別為新聞dk和c的單詞長度。如上圖中中間一列的矩陣所示。

最后將這些相似度矩陣組織成3D結(jié)構(gòu)的圖像Q,這個需要有點變換思想,相當于原來的矩陣合并到一起應該是n(L+1)N_dkN_c,文中按照圖片的組織形式進行展示,一張圖片為nN_dk*N_c的三維空間,同時圖片有多個通道(L+1)個:

即每個像素表示為

然后通過多層3D卷積網(wǎng)絡(luò)來進行特征提?。?div id="u0z1t8os" class="image-package">
并通過最大池化層進行顯著特征提取,得到最后用于預測的特征向量。

3. 點擊預測

實驗

數(shù)據(jù)集MSN, 羨慕啊,能多開源點么。。。

案例分析

總結(jié)

這篇文章利用HDC結(jié)構(gòu)對用戶建模做了改進,也使用簡單粗暴的交互+3DCNN進行了興趣匹配/特征提取,模型相較該團隊以往模型還是更有特點的。

END

本人簡書所有文章均為原創(chuàng),歡迎轉(zhuǎn)載,請注明文章出處 。百度和CSDN等站皆不可信,搜索請謹慎鑒別。技術(shù)類文章一般都有時效性,本人習慣不定期對自己的筆記/博文進行更新,因此請訪問本人簡書主頁查看最新信息http://www.itdecent.cn/u/40d14973d97c

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

友情鏈接更多精彩內(nèi)容