Consequential ranking algorithms and long-term welfare
- arxiv 2019
- 利用強(qiáng)化學(xué)習(xí)優(yōu)化推薦系統(tǒng)(排序算法)的長(zhǎng)期目標(biāo)
- 現(xiàn)有的推薦系統(tǒng)排序算法,都是優(yōu)化的立即目標(biāo),也就是說(shuō)讓每一次的收益最大化,但是這樣可能并不符合長(zhǎng)期的收益最大化
- 因?yàn)榭紤]到每次的排序結(jié)果,都會(huì)對(duì)以后的狀態(tài)造成影響:用戶偏好和item的特征都可能改變
- 例如一個(gè)新聞推薦系統(tǒng),經(jīng)常把假消息的推薦排序靠前,可能用戶的CTR會(huì)比較高,但是這樣不利于平臺(tái)的長(zhǎng)期收益
- 本文把多次的推薦結(jié)果看作一個(gè)MDP,每次動(dòng)作是一次排序,用RL來(lái)解決這個(gè)問題
Learning Semantic Representations for NovelWords: Leveraging Both Form and Context
- AAAI 2019
- 學(xué)習(xí)訓(xùn)練集中沒有出現(xiàn)過的單詞的word Embedding
- 前人一般是把新單詞的Embedding設(shè)為其他單詞Embedding的平均
- 本文同時(shí)利用單詞的form和context得到單詞的Embedding
- 對(duì)form的建模就是用n-gram Embedding的平均
- 對(duì)context的建模就是用周圍的詞的平均
- 最后把以上兩者按不同比例加起來(lái)
- loss就是把常見的單詞的Embedding和利用form+context的Embedding做MSE
Learning Attribute-Specific Representations for Visual Tracking
- AAAI 2019
- 學(xué)習(xí)視頻的分屬性的表示,用于目標(biāo)追蹤
- 因?yàn)椴煌哪繕?biāo)追蹤視頻幾種不同的屬性,例如:target motions(目標(biāo)在移動(dòng))、camera motions(相機(jī)在移動(dòng))、illumination variations(光照變化)、occlusions(遮擋)、scale changes(尺度變化)等
-
所以本文提出一種兩步訓(xùn)練的方法,如下如:
兩步訓(xùn)練方法 - 先學(xué)出視頻的不同屬性下的表示(因?yàn)榭赡芡瑫r(shí)有多個(gè)屬性存在),然后用不同屬性表示來(lái)預(yù)測(cè)相應(yīng)的屬性來(lái)訓(xùn)練這部分的參數(shù)
- 得到每個(gè)屬性下的表示,然后合并起來(lái)預(yù)測(cè)目標(biāo)位置
Learning to Embed Sentences Using Attentive Recursive Trees
- AAAI 2019
- 用一個(gè)新的樹形結(jié)構(gòu)學(xué)習(xí)句子的Embedding表示
-
以前的語(yǔ)法解析樹種,單詞全部在葉子節(jié)點(diǎn)上,如圖:
以前的句法解析樹 -
本文提出一個(gè)新的數(shù)形結(jié)構(gòu)(AR-Tree)用來(lái)對(duì)句子建模,數(shù)上的每一個(gè)節(jié)點(diǎn)對(duì)都是單詞,如圖:
Attentive Recursive Tree - AR-Tree中,最重要的單詞在最上面(根節(jié)點(diǎn)),建樹的時(shí)候,每次選出最重要的當(dāng)根節(jié)點(diǎn),然后左右分兩部分遞歸建樹
- 每個(gè)單詞的重要性通過LSTM+Dense得到
- 建樹之后用Tree-LSTM對(duì)樹建模
- 由于建樹部分使得模型不可微,所以用強(qiáng)化的方法來(lái)訓(xùn)練
Multi-Task Learning with Multi-View Attention for Answer Selection and Knowledge Base Question Answering
- AAAI 2019
- 做答案選擇(也就是答案排序),和基于知識(shí)庫(kù)的QA(KBQA)
- 以前的方法忽略了多個(gè)數(shù)據(jù)之間的關(guān)聯(lián),也就是不同QA對(duì)之間應(yīng)該具有一些對(duì)互相有用的信息。
-
所以本文提出一個(gè)多任務(wù)學(xué)習(xí)的方案,也就是對(duì)多條數(shù)據(jù)當(dāng)做多任務(wù)學(xué)習(xí),整體框架如下:
整體框架
Online Embedding Compression for Text Classification using
Low Rank Matrix Factorization
- AAAI 2019
- 一種把word Embedding壓縮的方法
- 本文覺得word Embedding占用了太多的存儲(chǔ)空間,所以想把它壓縮一下
- 通過矩陣分解的方法,例如Embedding矩陣是
(
),分解乘
,
- 這樣就把
壓縮成了兩個(gè)小的矩陣
和
- 我認(rèn)為這就是先Embedding成一個(gè)較小維度,然后Dense成較大維度
Personalized Question Routing via Heterogeneous Network Embedding
- AAAI 2019
- 做回答者推薦,給定一個(gè)新問題,給這個(gè)問題推薦優(yōu)質(zhì)回答者
-
對(duì)于數(shù)據(jù)集,本文考慮到3個(gè)信息:?jiǎn)栴}內(nèi)容、提問者、回答者,用這3個(gè)信息對(duì)數(shù)據(jù)建圖,節(jié)點(diǎn)是這3個(gè)中的一個(gè),邊是他們的關(guān)系(提問或者回答),如圖:
圖 - 對(duì)問題先用LSTM學(xué)出問題的表示
- 然后用隨機(jī)游走的方法在圖上生成序列,用word2vec的方法學(xué)習(xí)每個(gè)節(jié)點(diǎn)的表示
- 最后得到了每個(gè)問題、提問者、回答者3個(gè)表示,用CNN對(duì)他們建模得到預(yù)測(cè)的分?jǐn)?shù),就是這個(gè)回答者能給這個(gè)問題提供優(yōu)質(zhì)答案的分?jǐn)?shù)




