經(jīng)典重讀:Evaluating Knowledge Transfer and Zero-Shot Learning in a Large-Scale Setting

在零樣本學(xué)習(xí)(ZSL)中,一個重要的問題是如何有效的從其他來源獲取知識?,F(xiàn)在通行的ZSL方法中。Word-Embedding/Attribute是主要的知識來源,統(tǒng)稱為Semantic Embeddings。然而其他的知識來源也可能非常有效。

馬普所在論文Evaluation of output embeddings for fine-grained image classification中衡量了多種不同Semantic embedding對ZSL的效果。然而該論文對各種Semantic Embedding的來龍去脈甚為含糊,后續(xù)的研究中也鮮有提及。為了搞清楚各種不同的知識來源的來龍去脈,我們回顧馬普所的系列研究中的經(jīng)典論文之二:Evaluating Knowledge Transfer and Zero-Shot Learning in a Large-Scale Setting

經(jīng)典論文之一:經(jīng)典重讀:What Helps Where – And Why? Semantic Relatedness for Knowledge Transfer

本文關(guān)注了大規(guī)模數(shù)據(jù)集ILSVRC2010上,使用不同的Knowledge來挖掘有效信息(Attribute或Hierarchy結(jié)構(gòu)),本文評估了這些Knowledge為分類任務(wù)帶來的影響。評估主要在普通分類和Zero Shot分類兩個任務(wù)上進(jìn)行。

本文評估的Knowledge包括:

  • ILSVRC數(shù)據(jù)集中的Hierarchy結(jié)構(gòu)。這種結(jié)構(gòu)體現(xiàn)了物體類別的總-分結(jié)構(gòu)如下圖所示:


    數(shù)據(jù)集中的Hierachy結(jié)構(gòu)

    該結(jié)構(gòu)為物體分類提供了額外的信息,例如:普通的1000-way分類只知道parsnip和turnip是不同的物體。但是利用Hierarchy結(jié)構(gòu)提供的信息表明Parsnip和turnip雖然不同,但是實(shí)際上有相同的父節(jié)點(diǎn),因而兩者比其他類別更相似。使用Hierachy結(jié)構(gòu)信息輔助分類有下述三種方式:

    • Baseline:只使用Hierarchy中的葉節(jié)點(diǎn)監(jiān)督訓(xùn)練,即普通的1000-way分類
    • 使用Hierarchy中的內(nèi)部節(jié)點(diǎn)作為一個標(biāo)簽參與監(jiān)督訓(xùn)練(參照公式1)
    • 使用Hierarchy中的內(nèi)部節(jié)點(diǎn)+葉節(jié)點(diǎn)監(jiān)督訓(xùn)練(參照公式2)
  • 借助WordNet的整體-局部關(guān)系挖掘的Attribute(得到811個Attribute)。整體-局部關(guān)系在WordNet中的編碼如下圖所示:


    WordNet中包含的整體-局部關(guān)系

Attribute賦值由以下方法實(shí)現(xiàn):

  • 賦值(即計算label與每一個Attribute的相似度)由基于Wiki的詞向量內(nèi)積實(shí)現(xiàn)
  • 賦值由 Web搜索引擎的label和Attribute的記錄數(shù)量決定(Yahoo Holonyms與Yahoo Snippet經(jīng)典論文之一中Yahoo Web的兩種不同改進(jìn),該改進(jìn)啟發(fā)和貢獻(xiàn)不大,因而此處略過不談)。
  • 賦值由 圖像搜搜引擎的label和Attribute的記錄數(shù)量決定。
  • 越過Attribute,直接使用一組基類別y_i來表示其他類別z(參照本鏈接中的圖2.b)。即有z = \sum_i \alpha_iy_i。為了確定系數(shù)\alpha_i,本文使用類似于賦值A(chǔ)ttribute的方式:
    • \alpha_i(即計算z與每一個yi的相似度)為詞向量(基于Wiki)內(nèi)積。
    • \alpha_i由 Web搜索引擎的label和Attribute的記錄數(shù)量決定(Yahoo Holonyms與Yahoo Snippet)。
    • \alpha_i由 圖像搜搜引擎(Yahoo Image)的label和Attribute的記錄數(shù)量決定。

這些方法在普通分類上的結(jié)果如下表:


在ZSL分類上的結(jié)果如下表:


上述結(jié)果的啟示有:
1.Hierarchy信息對普通分類帶來了一些干擾,這說明Hierarchy信息當(dāng)中存在噪音。

  1. Hierarchy信息對ZSL帶來了改善,這說明Hierarchy當(dāng)中存在有益于知識遷移的部分。
  2. 基于Attribute的方法在兩個任務(wù)中都表現(xiàn)不佳,這是因?yàn)锳ttribute Mining(即決定采用哪811個Attribute,以及為什么是811個)和Attribute Association(即為Attribute賦值)兩個過程都引入了噪聲。
  3. Combine Attribute能夠融合各屬性的優(yōu)點(diǎn),但是具體Combine的過程論文一筆帶過,含糊其辭。

由于工作量大,出力不討好,Hierarchy和Attribute Mining+Association的研究進(jìn)展緩慢,但是這為可能的改進(jìn)方向提出了一些問題,有待后人來回答。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 多模態(tài)學(xué)習(xí)的核心問題之一是如何有效聯(lián)系視覺與語義信息。在人工智能和深度學(xué)習(xí)的大潮下,學(xué)術(shù)界、工業(yè)界的研究日新月異。...
    龍騰Zero閱讀 578評論 0 1
  • 關(guān)于馬克思資本論中過度勞動一點(diǎn)的思考 過度勞動在過去的資本主義世界里是一個常見的問題。馬克思所處的時代資本家對工人...
    石耳居閱讀 1,993評論 0 1
  • 這篇讀書心得是關(guān)于三毛的三本書――《撒哈拉的故事》、《萬水千山走遍》和《親愛的三毛》。 三毛是臺灣...
    顧城的詩閱讀 4,193評論 8 14
  • 有時候,真的好想知道答案以后再選擇,那樣我們是不是會過得比現(xiàn)在好?是的,每當(dāng)在面臨選擇的時候,我們都期盼如此。 但...
    你會幸福的100閱讀 945評論 0 0
  • 2月28日。 星期三。 陰 今天是一年一度的圍棋定段賽,原達(dá)早早的起來準(zhǔn)備迎接考試,我們出發(fā)的比...
    靜澤_eb8a閱讀 171評論 0 0

友情鏈接更多精彩內(nèi)容