風(fēng)控模型的冷啟動問題&遷移學(xué)習(xí)

冷啟動是指在沒有或只有很少量數(shù)據(jù)的情況下,從0到1建立業(yè)務(wù)模型的過程。

如新開了某個消費分期的場景、在某個國家新發(fā)展了類似于國內(nèi)的業(yè)務(wù),源域樣本和目標(biāo)域樣本分布不同,且目標(biāo)域樣本量又不足,可采用遷移學(xué)習(xí)、異常檢測、專家規(guī)則經(jīng)驗等技術(shù),本文重點介紹、討論遷移學(xué)習(xí)。

一、遷移學(xué)習(xí)的概念

下圖是比較全面、好理解的總結(jié),有興趣的朋友可以查看這篇論文:A Survey on Transfer Learning。(https://www.cse.ust.hk/~qyang/Docs/2009/tkde_transfer_learning.pdf)、A Survey on Deep Transfer Learning(https://arxiv.org/pdf/1808.01974v1.pdf)。

論文中同時給出數(shù)學(xué)定義如下:

Given a source domain D_{S} =\left\{ X_{S}, f_{S}(X) \right\} and learning task T_{S} ,a target domain D_{T} =\left\{ X_{T}, f_{T}(X) \right\} and learning task T_{T} , transfer learning aims to help imporve the learning of the target predictive function f_{T} (\cdot ) in D_{T} using the knowledge in D_{S} and T_{S} ,where D_{S} \neq? D_{T} or T_{S} \neq? T_{T}.

遷移學(xué)習(xí)在深度學(xué)習(xí)中有著更好的應(yīng)用(歸納遷移),如Feature-representation -transfer、Parameter-transfer,基本原理為復(fù)用已訓(xùn)練的網(wǎng)絡(luò)結(jié)構(gòu)或參數(shù),利用訓(xùn)練好的泛化特征、節(jié)省時間和計算力,以一種有利的方式縮小可能模型的搜索范圍,主要應(yīng)用領(lǐng)域在于CV(NLP取決于embedding后的表達(dá),未必會有效果提升)。

在無監(jiān)督學(xué)習(xí),應(yīng)用較少,個人閱讀一些資料后 ,理解主要是提供業(yè)務(wù)的理解和洞察。

在風(fēng)控領(lǐng)域,主要是基于實例的遷移學(xué)習(xí)(Instance-transfer、域適應(yīng)domain adaptation),本質(zhì)上就是帶來樣本上的補(bǔ)充,將兩個不同分布的訓(xùn)練集放在一起訓(xùn)練。主要用到的算法包括:TrAdaBoost(Transfer AdaBoost,對源域樣本進(jìn)行加權(quán))、TCA思想的方法(尋找一個低維子空間,使得源域和目標(biāo)域的數(shù)據(jù)樣本映射到該空間后服從相同或近似的分布,如JDA、DTELM算法)。

當(dāng)目標(biāo)域沒有標(biāo)簽或僅有少量標(biāo)簽時,可以采用EM的思想進(jìn)行,先使用源域訓(xùn)練的打上偽標(biāo)簽,遷移優(yōu)化模型后重新打標(biāo)簽,迭代優(yōu)化。

A Survey on Deep Transfer Learning提到通過GAN來進(jìn)行特征的遷移篩選,也可考慮在模型設(shè)計的時候,應(yīng)用于非神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),比如梯度下降中,我們每一次迭代的時候加入一個相反方向的任務(wù),通過反復(fù)的迭代一樣可以收斂到某一個值。

迭代時的目標(biāo)函數(shù):最小化label predictor分類器的loss函數(shù)、最大化domain classifier分類器的loss函數(shù)(現(xiàn)有模型新增的另一個目標(biāo),勵它混淆這兩個領(lǐng)域,確保兩個域的表征相似性的一種方法)。與規(guī)則損失的差異在于,從損耗流向網(wǎng)絡(luò)其余部分的梯度是相反的,這意味著該模型在學(xué)習(xí)使其最小化原始目標(biāo)的表征,而不允許它區(qū)分兩個域,而后者有助于知識遷移。

二、跨場景遷移案例

在進(jìn)行遷移學(xué)習(xí)前,一個重要的問題就是:給定一個目標(biāo)域,如何選擇合適的源領(lǐng)域?如果選擇的源域與目標(biāo)域相似性過小,則很可能造成負(fù)遷移。 有兩個解決方案,1、對不同數(shù)據(jù)集進(jìn)行相似性的度量,2、同一個目標(biāo)域,不同的源域,產(chǎn)生的遷移效果千差萬別,總能找到一些領(lǐng)域,遷移效果比不遷移好。

三個數(shù)據(jù)集,源域樣本traina,目標(biāo)域樣本trains,時間外驗證樣本集val,分三步驗證遷移學(xué)習(xí)模型效果。

1、trains訓(xùn)練,val驗證,結(jié)果如下,KS相差超過10%,遠(yuǎn)高于行業(yè)要求的5%,且ROC曲線不穩(wěn)定,意味著模型的泛化能力較差。

2、trains+traina訓(xùn)練(直接合并),val驗證,結(jié)果如下,訓(xùn)練集ROC波動非常劇烈。

3、trains+traina訓(xùn)練(TrAdaBoost),val驗證,結(jié)果如下,KS差值小于5%,且ROC曲線的趨勢較為平緩(說明泛化能力更強(qiáng))。

三、關(guān)于專家意見

冷啟動還是要以專家意見和規(guī)則為主,模型為輔,The Wisdom of the Few這篇論文專門對專家意見和模型效果進(jìn)行了對比,有興趣可以看看。

初始化時的人工(標(biāo)簽和業(yè)務(wù)知識的輸入)或?qū)δP托Ч娜斯z視,必不可少。

半監(jiān)督學(xué)習(xí)的許多經(jīng)驗和見解同樣適用于遷移學(xué)習(xí);在遷移學(xué)習(xí)中,我們主要關(guān)心我們的目標(biāo)任務(wù),在多任務(wù)學(xué)習(xí)中,目標(biāo)是在所有任務(wù)上都表現(xiàn)良好;將遷移學(xué)習(xí)推到極限,僅僅從少數(shù)幾個甚至零個樣本中學(xué)習(xí),我們就能分別得到少量、一次和零次的學(xué)習(xí)(Zero-shot learning)。

附,參考資料

1、智能風(fēng)控,梅子行著。

2、反欺詐冷啟動(方法篇),https://zhuanlan.zhihu.com/p/78687192

3、遷移學(xué)習(xí)簡明手冊,王晉東著。

4、基于遷移學(xué)習(xí)(Transfer learning)的反欺詐(二),https://zhuanlan.zhihu.com/p/35454479

5、基于多模型融合的遷移信用評分框架,https://zhuanlan.zhihu.com/p/84646070

6、遷移學(xué)習(xí)在金融風(fēng)控領(lǐng)域的應(yīng)用,https://zhuanlan.zhihu.com/p/72331942

7、基于深度遷移學(xué)習(xí)進(jìn)行時間序列分類,https://www.jiqizhixin.com/articles/2018-11-15-17

8、【一文讀懂】機(jī)器學(xué)習(xí)最新主戰(zhàn)場遷移學(xué)習(xí),從原理、方法到應(yīng)用,https://zhuanlan.zhihu.com/p/25979886

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

友情鏈接更多精彩內(nèi)容