PM個性化推薦總結(jié)(二)——詳細理解協(xié)同過濾推薦

個性化推薦本質(zhì)上是一個主動幫助目標用戶找到目標商品的過程,商品在被推薦系統(tǒng)呈現(xiàn)到用戶面前之前,往往經(jīng)歷以下幾個步驟:

初步召回進入候選池——按用戶喜愛程度/消費意愿大小排序——在此基礎(chǔ)上按人工規(guī)則策略重排序——以某種展示形式推出過程。

大家耳熟能詳?shù)膮f(xié)同過濾、矩陣分解、基于內(nèi)容的CB等推薦法指的都是在物品初步召回進入候選池這個過程中使用的方法。

其中協(xié)同過濾是個性化推薦最基本的方法,也是本文要講解的方法。

其他方法的理解可等待該系列的后續(xù)文章

產(chǎn)品經(jīng)理的推薦總結(jié)(三)——詳細理解以用戶畫像為主的基于內(nèi)容的推薦算法

產(chǎn)品經(jīng)理的推薦總結(jié)(四)——規(guī)則與策略在推薦中的應(yīng)用與作用

早期的協(xié)同過濾包含以用戶為基礎(chǔ)的協(xié)同過濾,即user-based的協(xié)同過濾(user-cf)和以物品/項目為基礎(chǔ)的協(xié)同過濾,即item-based的協(xié)同過濾(item-cf)。

無論是user-cf還是item-cf都統(tǒng)稱為以記憶為基礎(chǔ)(Memory based)的協(xié)同過濾。

在后來的Netflix競賽中,涌現(xiàn)了基于矩陣分解的算法,這種算法被廣泛應(yīng)用,其模型被稱之為LFM模型,即為隱因子或者隱語義模型。

協(xié)同過濾一路發(fā)展過來,獲得了很多拓展和補充。

一.如何理解以及區(qū)分同以記憶為基礎(chǔ)的user-cf和item-cf?

這種算法的思想是這樣的:推薦系統(tǒng)有兩個服務(wù)對象,一個是用戶,一個是物品,用戶與物品之間是需要關(guān)聯(lián)的橋梁媒介的,這個橋梁也只有兩個選擇,一個是用戶,一個是物品。user-cf與item-cf的本質(zhì)區(qū)別就在于是選擇用戶作為用戶-物品關(guān)系的橋梁,還是物品作為用戶-物品關(guān)系的橋梁。

以下用“目標用戶”“目標物品”“橋梁用戶”“橋梁物品”描述算法概念。

uesr-cf選擇用戶作為用戶-物品關(guān)系橋梁

選擇用戶作為橋梁,需要完成兩個步驟:

1.建立目標用戶與橋梁用戶的關(guān)系。

2.建立橋梁用戶與目標物品的關(guān)系。

以上兩步完成,便能成功的關(guān)聯(lián)目標用戶與目標物品。

目標用戶與橋梁用戶的關(guān)系如何確立:我們認為喜愛同樣物品的用戶具有共同之處,此處的“喜愛同樣的物品”便是目標用戶與橋梁用戶的“相似”關(guān)系。

橋梁用戶與目標物品的關(guān)系如何確定:我們認為橋梁用戶喜愛某目標物品,此處的“喜愛”即代表橋梁用戶與目標商品的關(guān)系。

示意圖如下:


選擇物品作為橋梁,也需要完成兩個步驟:

1.建立目標用戶與橋梁物品的關(guān)系。

2.建立橋梁物品與目標物品的關(guān)系。

以上兩步完成,便能成功關(guān)聯(lián)目標用戶與目標物品。

這里目標用戶與橋梁物品,橋梁物品與目標物品的關(guān)系,跟上面的有相似之處。

目標用戶與橋梁物品的關(guān)系如何確立:我們認為目標用戶喜愛橋梁物品,此處的“喜愛”即代表目標用戶與橋梁商品的關(guān)系。

橋梁物品與目標物品的關(guān)系如何確定:我們認為被同樣用戶喜愛的物品也會有共同之處,此處“被同樣用戶喜愛”便是橋梁物品與目標物品的“相似”關(guān)系。

示意圖如下:


對比兩個圖可以很清晰的看出,基于記憶的協(xié)同過濾的原理都存在非常驚人的相同之處,這種相同之處可以抽象出統(tǒng)一的邏輯,在這種邏輯的具化過程中,兩種協(xié)同過濾澤呈現(xiàn)出具有對稱美感的異同之處。

相同之處一:

都需要建立目標用戶與目標商品之間的關(guān)系。

異同之處一:

user-cf? 中間關(guān)系橋梁為“user”。

item-cf? 中間關(guān)系橋梁為“item”?

相同之處二:

相同類型的目標的關(guān)系靠共同喜愛的物品或被共同用戶喜愛,不同類型的目標關(guān)系靠用戶對物品的單項喜愛。

異同之處二:

user-cf? 相同類型的資源關(guān)系體現(xiàn)在目標用戶與橋梁用戶之間,靠“共同喜愛的商品”建立。

item-cf? 相同類型的資源關(guān)系體現(xiàn)在橋梁物品與目標物品之間,靠“被共同的用戶喜愛”建立。

不同類型的資源關(guān)系,都指的是用戶資源與物品資源的關(guān)系,靠“用戶單向喜歡物品”建立。

相同之處三:

無論是user-cf還是item-cf,使用到的都是用戶的行為數(shù)據(jù),“喜愛”可以代表“點擊”“收藏”“購買”等行為,并不涉及用戶或者物品的內(nèi)容屬性數(shù)據(jù)。

兩種基于記憶的協(xié)同過濾在使用場景上有各自的優(yōu)勢和劣勢,為什么會存在這種優(yōu)勢與劣勢,大家可以試試根據(jù)原理圖分析一下。

二.如何理解基于矩陣分解的lfm模型

如果我們能得到一個用戶-物品的評分矩陣,包含所有用戶、所有物品,以及用戶與物品一對一的單向打分。那就能輕松的完成將目標商品推薦給目標用戶的目的。而在實際收集數(shù)據(jù)的過程中,發(fā)現(xiàn)每個用戶的行為有限,因此只能得到一張稀疏的用戶對物品打分表,如下圖所示。


LFM模型的思想是將每個用戶喜歡某個物品拆成兩個環(huán)節(jié):第一個環(huán)節(jié)是某個用戶喜歡某種元素,第二個環(huán)節(jié)是這個元素被某個物品擁有。這里的“元素”不需要人為標注與構(gòu)建,稱之為“潛在因子”。

通過這個理論,采用矩陣分解的方法將用戶-物品矩陣拆分“用戶-潛在因子”矩陣”和“潛在因子-物品”矩陣,求解得到潛在因子和用戶、物品的關(guān)系,將剩余的“空白打分欄”補充完整,就是lfm模型要解決的問題。

以上就是推薦方法中最常用的協(xié)同過濾法。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

友情鏈接更多精彩內(nèi)容