[機(jī)器學(xué)習(xí)入門] 李宏毅機(jī)器學(xué)習(xí)筆記-22(Transfer Learning part 2;遷移學(xué)習(xí) part 2)

[機(jī)器學(xué)習(xí)入門] 李宏毅機(jī)器學(xué)習(xí)筆記-22(Transfer Learning part 2;遷移學(xué)習(xí) part 2)

PDF VIDEO

接part 1

第四象限

Target data unlabelled,Source Data labelled

Zero-shot learning

今天想要辨識草泥馬,但是source data中沒有一只草泥馬!

這里寫圖片描述

Representing each class by its attributes

這里寫圖片描述

通過特征表來進(jìn)行分類,當(dāng)輸入一只草泥馬時;

這里寫圖片描述

Attribute embedding

這里寫圖片描述
這里寫圖片描述

x 是一張圖片,通過函數(shù)(NN)f(),可以投影到embedding space成為一個向量f(x);
y 是特征表里的一行特征向量,通過函數(shù)(NN)g((),降維到embedding space成為向量g(y);
然后使f(x123),g(y123)上越接近越好,當(dāng)我們輸入一張不知道的圖片比如草泥馬,通過比較f(草泥馬)與哪個g(y)比較接近,得到它的類別。

但是會有一個問題,當(dāng)我們并不知道特征表時,怎么解決呢,那么就需要用Attribute embedding + word embedding。我們知道word embedding 中的每一維度,其實就代表了一個特征,所以就不需要一個database來告訴每種動物的特征是啥。

這里寫圖片描述

回到剛剛在embedding space 上的距離比較,通過這個公式比較可以嗎?

這里寫圖片描述

答案是不可以的,很明顯,為了使結(jié)果更接近,全部投影到一個點上顯然可以,但明顯不合適。所以loss function這樣定義是不行的。
上述公式只考慮了同一組x,y越接近越好,但沒有考慮到,不同組的x,y距離要拉大。 所以要改成:

這里寫圖片描述

其實還有一個Zero-shot 的方法叫做Convex Combination of Semantic Embedding。
其實就是取NN得出的分類的概率中點,然后word vector 與該中點比較。

這里寫圖片描述

Example of Zero-shot Learning

比如 本來只有中英、日法翻譯,通過transfer,學(xué)會了中法翻譯。

這里寫圖片描述
這里寫圖片描述

第二象限

Target data labelled,Source Data unlabelled

Self-taught learning

這里寫圖片描述

第三象限

Target data unlabelled,Source Data unlabelled

Self-taught Clustering

這里寫圖片描述
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容