人臉識(shí)別——早期深度學(xué)習(xí)方法

一 DeepFace(CVPR2014)

《DeepFace: Closing the Gap to Human-Level Performance in Face Verification》

  1. 提出一個(gè)3D人臉對(duì)齊的方法。
  2. 提出一個(gè)采用深度網(wǎng)絡(luò)得到人臉特征的方法,深度學(xué)習(xí)人臉識(shí)別開山之作。

二 DeepID1(CVPR2014)

《Deep Learning Face Representation from Predicting 10,000 Classes》

  1. 增加深度模型分類類別數(shù)目能有效提升模型性能。
  2. 用于人臉識(shí)別的特征必須是分類之間的DeepID,不能用softmax layer的輸出。
  3. 訓(xùn)練數(shù)據(jù)越多,采用的patches越多,模型性能越好。
  4. 由于提出的網(wǎng)絡(luò)結(jié)構(gòu)最后一個(gè)卷積層非常?。?*2的feature map),所以最終全聯(lián)接層(DeepID)同時(shí)連接到最后一個(gè)卷積層和它前面的卷積層。

三 DeepID2(NIPS 2014)

《Deep Learning Face Representation by Joint Identification-Verification》

  1. face identification任務(wù)拉開類間的距離,face verification任務(wù)減小類內(nèi)距離。
  2. 當(dāng)face identification任務(wù)權(quán)重為1, face verification任務(wù)權(quán)重為0.05時(shí)效果最好。

四 DeepID2+(CVPR2015)

《Deeply learned face representations are sparse, selective, and robust》

  1. 增加特征的維度。
  2. 對(duì)前面的卷積層添加監(jiān)督信息。
  3. 神經(jīng)元激活值的稀疏性:每個(gè)圖像大約有一半神經(jīng)元被激活;每個(gè)神經(jīng)元大約有一半圖像會(huì)使其激活。
  4. 神經(jīng)元激活值二值化:精度降低不大,說明神經(jīng)元是否被激活比神經(jīng)元具體數(shù)值更為重要。
  5. 神經(jīng)元的判別力:DeepID2+特征具有身份和屬性判別力。
  6. 特征魯棒性:高維全局特征具有良好的遮擋魯棒性。

五 DeepID3(2015)

《DeepID3: Face Recognition with Very Deep Neural Networks》

  1. 基于VGG和GoogLeNet提出兩種更深的人臉識(shí)別網(wǎng)絡(luò)。

六 triplet loss(CVPR2015)

《FaceNet: A Unified Embedding for Face Recognition and Clustering》

  1. 提出triplet loss:(alpha是margin,文中設(shè)為0.2)
    L = \sum_{i}^{N}[\parallel f(x_i^a)-f(x_i^p) \parallel _2^2 -\parallel f(x_i^a)-f(x_i^n) \parallel_2^2+\alpha]_+
  2. 選擇所有triplets進(jìn)行訓(xùn)練收斂太慢,所以應(yīng)該選擇hard triplets。在線生成triplets的時(shí)候(在一個(gè)mini-batch中),為了得到更好的正樣本對(duì),需要保證每個(gè)mini-batch中,每個(gè)id均包含一定數(shù)量(比如40)的圖片。選擇正樣本對(duì)的時(shí)候采用全配對(duì)的方式(負(fù)樣本還是選擇hard negtives),而不是只選擇hard positive pairs,雖然沒對(duì)兩種選擇方式進(jìn)行比較,但是實(shí)踐中發(fā)現(xiàn)全配對(duì)更穩(wěn)定,在開始訓(xùn)練的時(shí)候收斂稍快。如果選擇hardest negatives會(huì)導(dǎo)致在訓(xùn)練初期就陷入局部極小值,為了避免該問題,可以選擇與anchor距離大于“正例與anchor距離”的hard negatives(semi-hard),而不是hardest negatives。

七 center loss(ECCV2016)

《A Discriminative Feature Learning Approach for Deep Face Recognition》

  1. 以softmax loss學(xué)到的特征是可分的,但是依然有顯著的類內(nèi)變化,所以不夠具有辨別力。
  2. center loss:
    L_C = \frac{1}{2}\sum_{i=1}^{m}\parallel x_i-c_{yi} \parallel _2^2
  3. 如何更新center:基于mini-batch在每一個(gè)iteration中計(jì)算某類別對(duì)應(yīng)所有特征的均值作為該類中心。同時(shí)為了避免噪聲數(shù)據(jù),使用一個(gè)標(biāo)量控制類中心的學(xué)習(xí)率。
  4. 試驗(yàn)參數(shù):center loss權(quán)重=0.003,控制類中心學(xué)習(xí)率的標(biāo)量=0.5。
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

友情鏈接更多精彩內(nèi)容