異常檢測·1-Deep Learning for Anomaly Detection:A Review

文獻來源:
Pang, Guansong, et al. "Deep learning for anomaly detection: A review." ACM Computing Surveys (CSUR) 54.2 (2021): 1-38.

主題:基于深度方法的異常檢測綜述

摘要:異常檢測的任務(wù)類型,問題復(fù)雜度,主要挑戰(zhàn)??偨Y(jié)主流方法的假設(shè),優(yōu)缺點,場景。提出未來的研究方向。

任務(wù)類別

單點檢測、條件異常檢測、群異常檢測

問題復(fù)雜度

  1. 異常樣本的未知性,無限可能。
  2. 異常類的異質(zhì)問題
  3. 異常樣本的極度不平衡

主要挑戰(zhàn)

  1. 異常樣本的低召回率
  2. 高維和非獨立(概率依賴)數(shù)據(jù)
  3. 樣本的利用效率:無監(jiān)督、半監(jiān)督、弱監(jiān)督學習方式
  4. 正常樣本受噪聲污染情況下的魯棒學習
  5. 復(fù)雜樣本的檢測,包括條件異常、群異常以及多源的異質(zhì)異常
  6. 異常檢測結(jié)果的解釋性

深度方法對比傳統(tǒng)方法

image.png

方法分類

  1. 大小類


    image.png
  2. 大類框架


    image.png

方法1:深度學習僅用于特征提取

假設(shè):深度模型提取的特征保持了樣本類別間的判別信息,有助于異常樣本的檢測。

基本方法:特征提取與異常檢測解耦且異常檢測特征提取沒有約束。兩個方法提取特征:1)使用預(yù)訓練模型。2)使用自編碼器AE。

優(yōu)點:1)存在大量預(yù)訓練模型可用。2)深度降維特征優(yōu)于線性降維特征。3)由于解耦,有大量特征提取模型和異常檢測模型方便快速應(yīng)用。

缺點:1)由于解耦,往往不能獲得最優(yōu)檢測結(jié)果。2)異常檢測受限于現(xiàn)有的預(yù)訓練模型。

挑戰(zhàn)目標:CH1,CH2

方法2 正常類的特征提取

分2類:1)使用一般方法的特征提取,即沒有異常樣本指導和約束情況下的特征提取。方法:AE、GAN、預(yù)測模型、自監(jiān)督。2)結(jié)合常用的異常度量進行特征學習。方法:距離度量、one-class、聚類。

方法2.1.1 基于AE的通用特征提取

假設(shè):正常樣本可以更好的重構(gòu)。

方法:使用AE訓練,使用重構(gòu)誤差作為異常分數(shù)。

優(yōu)點:1)不同類型的數(shù)據(jù)通用;2)有多個AE變種可用。

缺點:1)模型易受噪聲影響產(chǎn)生偏見;2)AE針對降維和壓縮等任務(wù),沒有對異常檢測進行優(yōu)化。

挑戰(zhàn):CH1,CH4

方法2.1.2 基于GAN的通用特征判別

假設(shè):正常樣本相對于異常樣本更容易生成。

方法:先獲得GAN的生成器G和判別器D。使用待測樣本逆向計算出對應(yīng)特征z。通過L(x,G(z))和D中中間層的特征提取h(G(z))計算的L(h(x),h(G(z))作為異常分數(shù)。

優(yōu)點:1)GAN生成的圖像更接近現(xiàn)實樣本。2)存在大量類型的GAN可用。

缺點:1)GAN由于模式坍塌的問題難以訓練。2)GAN難以解決復(fù)雜樣本的生成。3)GAN任務(wù)目標與異常檢測不一致,容易次優(yōu)。

挑戰(zhàn):CH1,CH2

方法2.1.3 基于預(yù)測模型的特征判別

一般用于視頻的異常檢測,由前t個幀預(yù)測第t+1個幀,根據(jù)預(yù)測結(jié)果的差異性進行異常檢測。

假設(shè):正常樣本在視覺維度上比異常樣本更容易預(yù)測。

優(yōu)點:1)有眾多的時間序列技術(shù)可以結(jié)合。2)能夠?qū)W習不同類型的時空依賴數(shù)據(jù)。

缺點:1)只能用于序列數(shù)據(jù)。2)計算代價高。3)目標并非異常檢測,結(jié)果容易次優(yōu)。

挑戰(zhàn):CH1,CH2,CH5

方法2.1.4 自監(jiān)督學習

假設(shè):正常樣本的自監(jiān)督分類結(jié)果比異常樣本一致。

優(yōu)點:1)能夠應(yīng)用在無監(jiān)督和半監(jiān)督場景中。2)異常評分的基礎(chǔ)是梯度大小的一些內(nèi)在特性及其更新。

缺點:1)自監(jiān)督變換形式依賴于數(shù)據(jù)類型。2)結(jié)果次優(yōu),理由同上。

挑戰(zhàn):CH1,CH2,CH4

方法2.2.1 基于距離度量

假設(shè):正常樣本距離小

方法:在目標函數(shù)中結(jié)合距離目標對深度網(wǎng)絡(luò)進行約束。

優(yōu)點:1)理論基礎(chǔ)研究豐富。2)結(jié)合深度網(wǎng)絡(luò)后,工作在低維上。3)可以靈活定義學習目標和過程。

缺點:1)距離結(jié)合進學習的過程難以處理。2)距離度量在異常檢測上的固有弱點。

挑戰(zhàn):CH1,2,3,4

方法2.2.2 One-Class方法

假設(shè):所有正常的實例都來自一個單一的(抽象的)類,并可以被一個緊湊的模型總結(jié)出來,而異常并不符合這個模型

基本方法:深度模型提取特征,OCSVM,SVDD處理單類分類

優(yōu)點:1)有理論基礎(chǔ)支撐。2)深度模型與One-class模型聯(lián)合學習更優(yōu)化的特征。3)避免人工選擇核函數(shù)。

缺點:1)難以有效學習復(fù)雜分布的正常數(shù)據(jù)。2)檢測性能依賴于單類分類模型。

挑戰(zhàn): CH1,2,3

2.2.3 聚類度量

假設(shè):正常樣本更容易聚集

基本方法:通過計算待測樣本與偽標簽的損失,以及非聚類的損失,如重構(gòu)損失等來判別異常。

優(yōu)點:1)有關(guān)已有的聚類研究的支撐。2)深度模型在檢測復(fù)雜樣本上優(yōu)于傳統(tǒng)模型。

缺點:1)檢測性能受聚類結(jié)果的限制。2)容易受噪聲影響。

挑戰(zhàn):CH1,2,4

3 方法

端到端的方法:1)排序模型,2)先驗驅(qū)動模型,3)softmax似然模型,4)端到端的單類模型。

3.1 排序模型

假設(shè):存在一個可觀察的順序變量,它捕獲一些數(shù)據(jù)異常

3.2 先驗驅(qū)動模型

假設(shè):賦予模型的先驗?zāi)軌蛴行Р蹲降秸Ec異常數(shù)據(jù)的特征。

提到的文獻是關(guān)于強化學習應(yīng)用場景,略。

3.3 softmax似然模型

假設(shè):正常樣本更加頻繁的發(fā)生。

3.4 端到端的one-class模型

假設(shè):1)可以有效地合成接近異常的數(shù)據(jù)實例。2)所有正常的實例都可以用一個判別器單類模型來概括。

方法:這是一類使用GAN的判別器作為one-class的基本模型。

優(yōu)點:1)端到端的方式。2)對抗技術(shù)的支撐。

缺點:1)受GAN性能的限制。2)半監(jiān)督場景的限制。

挑戰(zhàn):CH1,2

代表算法

image.png

代碼

image.png

數(shù)據(jù)集

image.png

未來研究方向

  1. 探索新的,更有效的異常度量信號
  2. 建立從有限標記異常到未知異常的檢測模型,即泛化到異質(zhì)的異常。
  3. 利用大規(guī)模的正常樣本進行學習,從正常樣本中遷移微調(diào)。
  4. 復(fù)雜異常的檢測,多模態(tài)的異質(zhì)異常檢測。
  5. 異常判別的可解釋性
  6. 新場景:OOD檢測;好奇心學習;非獨立同分布場景。
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容