# Is Robustness the Cost of Accuracy 讀書(shū)報(bào)告

Is Robustness the Cost of Accuracy 讀書(shū)報(bào)告

論文鏈接:https://arxiv.org/abs/1808.01688v1
源代碼地址:https://github.com/huanzhang12/Adversarial_Survey

簡(jiǎn)介

在圖像分類領(lǐng)域,深度學(xué)習(xí)模型已經(jīng)得到了廣泛的應(yīng)用,并且取得了卓越的性能。分類的準(zhǔn)確度長(zhǎng)期以來(lái)都是評(píng)價(jià)圖像分類模型性能的最核心甚至唯一標(biāo)準(zhǔn)。但最近研究表明,即使是充分訓(xùn)練好的深度神經(jīng)網(wǎng)絡(luò)模型也很容易被對(duì)抗攻擊算法攻破。所以模型的魯棒性應(yīng)該作為除了準(zhǔn)確率之外的另一個(gè)重要的指標(biāo)

由此就有一個(gè)重要的命題被提出了:模型的準(zhǔn)確性和魯棒性之間是否存在關(guān)聯(lián)?會(huì)有什么樣的關(guān)聯(lián)?這也是本論文重點(diǎn)關(guān)注的問(wèn)題。

研究?jī)?nèi)容

論文中選取了基于 ImageNet 的 18 個(gè)模型進(jìn)行具體的實(shí)驗(yàn),用于評(píng)估這些模型的魯棒性以及與準(zhǔn)確率之間的關(guān)系。

18個(gè)模型

模型魯棒性的評(píng)估

為了合理的衡量模型的魯棒性,總體上使用兩種方式來(lái)進(jìn)行評(píng)估。

  1. adversarial attacks
  2. attack-agnostic approaches

第一種方式就是選取某種特定的對(duì)抗攻擊方式,如 FGSM, C&W 等,對(duì)模型進(jìn)行攻擊,然后找出其最小的攻擊擾動(dòng)大小,從而計(jì)算得到最小的對(duì)抗距離。這種方法是對(duì)模型魯棒性的上邊界的估計(jì)。

第二種方法采用一種更加泛化的方式對(duì)模型本身的魯棒性進(jìn)行評(píng)估,而不依賴于特定攻擊。本文中使用的就是 CLEVER score。該方法基于局部利普希茲常數(shù)和極值定理對(duì)模型魯棒性下邊界進(jìn)行估計(jì)。

魯棒性評(píng)估的相關(guān)指標(biāo)

  1. Attack success rate 攻擊成功率
  2. Distortion 攻擊擾動(dòng)大小
  3. CLEVER score
  4. Transferability 攻擊的遷移性

這里具體闡述一下論文中這些指標(biāo)的測(cè)量方式。

首先攻擊成功率是通過(guò)利用多種對(duì)抗攻擊方式,并且限制攻擊中擾動(dòng)參數(shù)的大小來(lái)實(shí)現(xiàn)的。比如使用 FGSM,顯示其擾動(dòng)大小參數(shù)為 0.1 0.2 0.5 從而可以分別得到不同擾動(dòng)范圍下的攻擊成功率。

攻擊擾動(dòng)大小指的就是成功實(shí)現(xiàn)某一攻擊所需要的擾動(dòng)的大小。其中使用 l2 和 l-infinite 參數(shù)作為距離的衡量。在擾動(dòng)大小評(píng)估中,使得對(duì)抗攻擊能夠 100% 成功,并且通過(guò)二分搜索的方法找到最小的擾動(dòng)參數(shù)的限制。

而對(duì)于對(duì)抗樣本的遷移性的,文中使用各模型生成的對(duì)抗樣本去分別攻擊其他模型從而得到每一種模型對(duì)于遷移攻擊的抵抗性和適應(yīng)能力。

實(shí)驗(yàn)結(jié)果

這里截取部分代表性的圖表展示。包括攻擊成功率,攻擊擾動(dòng)大小,以及模型遷移性的一些分析。


各模型攻擊成功率和攻擊擾動(dòng)距離
準(zhǔn)確率與擾動(dòng)距離之間的關(guān)系
用第 i 行模型生成的對(duì)抗樣本攻擊第 j 列的模型的成功率

結(jié)論

通過(guò)對(duì)這18個(gè)模型的大量實(shí)驗(yàn)和分析,可以得到以下幾個(gè)重要結(jié)論:

  1. 生成對(duì)抗樣本的擾動(dòng)大小與模型分類錯(cuò)誤率的對(duì)數(shù)值呈線性關(guān)系。由此可以說(shuō)明模型的魯棒性是提升模型性能時(shí)必須加以考量的一個(gè)指標(biāo)。
  2. 模型結(jié)構(gòu)比模型的大小對(duì)魯棒性的影響更大
  3. 論文研究了對(duì)抗樣本的遷移性,發(fā)現(xiàn) VGG 生成的對(duì)抗樣本的遷移性較好,而其他的模型生成的對(duì)抗樣本基本只適用于同類的網(wǎng)絡(luò)。

總結(jié)

本文最大的貢獻(xiàn)應(yīng)該是對(duì)大量的DNN模型做了大量的實(shí)驗(yàn),并且對(duì)準(zhǔn)確率和魯棒性之間的關(guān)系進(jìn)行了探究,這是之前未曾有人做過(guò)的。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 2018-4-9 為自己禱告: 挪去今生驕傲! 【經(jīng)文】 不要為明日自夸, 因?yàn)橐蝗找问?,你尚且不能知道?(...
    Nancy榮美閱讀 3,297評(píng)論 0 0
  • 快樂(lè)是什么?對(duì)我來(lái)說(shuō),快樂(lè)是可以隨時(shí)玩,不用考試、做作業(yè),沒(méi)有補(bǔ)習(xí)班,那樣,便是天堂。大人們的快樂(lè)是什么呢?是錢(qián)嗎...
    透明湖畔閱讀 158評(píng)論 1 1
  • 重逢 文/一樹(shù)繁花 一個(gè)熟悉的背影 總在茫茫人海閃現(xiàn) 一個(gè)似曾相識(shí)的笑容 總在晃然之間 出現(xiàn)在陌生的面孔...
    一樹(shù)繁花_649d閱讀 165評(píng)論 0 0
  • 時(shí)間:2016.7.25晚 進(jìn)度:p1-19第一章 別當(dāng)了主持人就不是人了 書(shū)摘: 感悟: “你關(guān)心的都是你自己,...
    喜歡豆豆的小蘇打閱讀 282評(píng)論 0 0

友情鏈接更多精彩內(nèi)容