Domain Generalization是Domain Adaptation的一種特殊問題,在DA的基礎(chǔ)上,DG的目的為對于任意不可見的目標(biāo)域都有很強(qiáng)的魯棒性。
Domain Adaptation
Moment Matching for Multi-Source Domain Adaptation

多個(gè)源域,一個(gè)目標(biāo)域。
code and data

方法分為三部分:
- Feature Extractor共享權(quán)重,將不同源域的數(shù)據(jù)映射到同一個(gè)特征空間
- Moment Matching Component試圖將不同源域的特征分布拉到一起
- Classifier融合多個(gè)源域的分類器加權(quán)輸出
各源域 及目標(biāo)域
之間的Momment距離定義為源域與目標(biāo)域的距離及各源域之間的距離。公式如下:
目標(biāo)函數(shù)表示為 個(gè)源域的分類損失加上前述

S-T的對齊比較有效。
Semi-Supervised Learning by Augmented Distribution Alignment

這是一篇ICCV2019的論文。
實(shí)際中,標(biāo)注數(shù)據(jù)和非標(biāo)注數(shù)據(jù)往往存在數(shù)量級的差距,標(biāo)注數(shù)據(jù)的分布和非標(biāo)注數(shù)據(jù)差距(可認(rèn)為是真實(shí)分布)也很大。本文通過對抗學(xué)習(xí)拉齊標(biāo)注數(shù)據(jù)和非標(biāo)注數(shù)據(jù)的分布,此外參考mixup方法利用非標(biāo)注數(shù)據(jù)嘗試解決標(biāo)注數(shù)據(jù)較少的問題。
如下,是本文的loss公式,公式分為兩部分, 第一部分表示分類任務(wù),第二部分表示對抗學(xué)習(xí)。
具體地,對抗損失如下, 為樣本屬于標(biāo)注樣本
還是非標(biāo)注樣本
的分類函數(shù)。通過對抗學(xué)習(xí),可以將標(biāo)注樣本和非標(biāo)注樣本的特征
拉到同一空間。
此外,為了解決標(biāo)注樣本數(shù)量較少的問題,本文采用mixup方法利用非標(biāo)注樣本,公式如下,非標(biāo)注樣本的類別標(biāo)簽 由分類器生成。鑒別器的標(biāo)簽
也進(jìn)行mixup。
下圖是在SVHN數(shù)據(jù)集上的表現(xiàn)及跟STOA方法的對比。


Domain Generalization
Episodic Training for Domain Generalization
-
Vanilla Aggregation Method: 直接將各源域
的數(shù)據(jù)送入特征提取器
和分類器
中進(jìn)行訓(xùn)練。
Domain Specific Models: 每個(gè)domain的數(shù)據(jù)獨(dú)立訓(xùn)練。
Episodic Training of Feature Extractor: 不同domain使用相同的特征提取器,但用不同的分類器。強(qiáng)化特征提取器的訓(xùn)練。
-
Episodic Training of Classifier: 上同,不同的特征提取器,相同的分類器。強(qiáng)化分類器。
Episodic Training by Random Classifier: 更加極端的特征提取器的強(qiáng)化,完全使用一個(gè)隨機(jī)初始化且不更新參數(shù)的分類器訓(xùn)練。
整體流程如下:

Episodic的效果



