Constrained Convolutional Neural Networks for Weakly Supervised Segmentation

提出了CCNN(Constrained CNN):一種具有嶄新的代價(jià)方程來優(yōu)化卷積網(wǎng)絡(luò)。有任意線性約束(arbitrary linear constraints)于像素標(biāo)簽的結(jié)構(gòu)化輸出空間(structured output space of pixel labels)。卷積網(wǎng)絡(luò)非凸性讓直接優(yōu)化約束很困難,本文亮點(diǎn)就是對ground truth 標(biāo)簽做了一個(gè)分布模型,讓深度網(wǎng)絡(luò)的輸出與這個(gè)潛伏模型越接近越好。最終的目標(biāo)是一個(gè)關(guān)于線性模型的兩面凸問題(a biconvex problem for linear models)。對于深度非線性模型,變成了一個(gè)交替優(yōu)化的問題(可以用SGD解決)

Preliminaries

普通方法如下:

定義一張圖的像素級分類為

共有m類


CNN模型的概率分布為

等式右側(cè)表示把分布看成獨(dú)立的,

每一個(gè)邊界代表一個(gè)softmax概率:


標(biāo)準(zhǔn)的語義分割要求有完整的groundtruth信息,然而我們沒有。


Constrained Optimization

簡寫成

CCNN的優(yōu)化可以寫成:


在輸出分布上強(qiáng)化了k個(gè)獨(dú)立的線性約束

許多QI滿足這個(gè)約束,然而所有網(wǎng)絡(luò)都用一組向量參數(shù)θ,因此將不同QI輸出空間鏈接到了一起,這樣導(dǎo)致輸出同時(shí)與輸入圖片和弱標(biāo)簽一致

作者繼續(xù)簡化它的寫法。。。:

接下來說了直接優(yōu)化很困難,可以用拉格朗日對偶,但是空間耗費(fèi)很多。因此作者介紹了一種概率分布p(x) over X label ?的語義分割 。作者約束P(X)在合適的約束目標(biāo),同時(shí)移除輸出Q的約束,讓P,Q有相同的概率分布,通過最小化KL-divergence. :

問題(3)

這相當(dāng)于 P(X)可以是一個(gè)獨(dú)立分布

對于一個(gè)固定的θ,去優(yōu)化P;對于一個(gè)固定的P,去優(yōu)化θ

上述問題可以用標(biāo)準(zhǔn)交叉熵?fù)p失,SGD優(yōu)化

4.1. Latent distribution optimization

首先優(yōu)化P,固定輸出 ? ?(用對偶方程)


目標(biāo)方程是凸的而且有線性約束,滿足Slaters條件

Slater 條件是:

[我還不能理解怎么滿足了。。。仿佛CS229在說對偶講過,記不得了]

只有支持向量才對應(yīng)不為0的拉格朗日乘子

反正本文是個(gè)強(qiáng)對偶問題

對偶方程是凹的,可以用projected gradient ascent優(yōu)化(投影梯度上升)

對偶方程的梯度是


因?yàn)橥队疤荻壬仙惴ㄔ黾铀屑s束的對偶變量是不被滿足的,因此分布p會(huì)去調(diào)整,讓它逐漸滿足約束。

4.2. SGD

對一個(gè)固定的分布P,問題3可轉(zhuǎn)化為標(biāo)準(zhǔn)的交叉熵?fù)p失



算法總圖


4.3 Constraints with slack variable

這一部分主要是在上部分基礎(chǔ)上引入了一個(gè)松弛變量,這個(gè)松弛變量用hinge loss來規(guī)范。


5. Constraints for Weak Semantic Segmentation




最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容