2024-03-19 正則化

1dc0ec4e5d2a4ee789f09985c4a29b71.png

過(guò)擬合(Overfitting)
過(guò)擬合指的是模型在訓(xùn)練數(shù)據(jù)上擬合得太好,以至于它開始捕捉數(shù)據(jù)中的噪聲而非潛在的規(guī)律。換句話說(shuō),過(guò)擬合的模型對(duì)訓(xùn)練數(shù)據(jù)過(guò)于敏感,包括那些不規(guī)則的、隨機(jī)的或錯(cuò)誤的變動(dòng)。因此,雖然這樣的模型在訓(xùn)練集上的表現(xiàn)可能很好,但它在新的、未見過(guò)的數(shù)據(jù)上的泛化能力通常很差。

正則化(Regularization)
為了避免過(guò)擬合,我們可以使用正則化技術(shù)。正則化涉及向模型中添加一個(gè)懲罰項(xiàng),該懲罰項(xiàng)對(duì)模型的復(fù)雜度進(jìn)行懲罰。這種懲罰通常是通過(guò)將模型參數(shù)的某種范數(shù)(例如L1范數(shù)或L2范數(shù))加到損失函數(shù)中來(lái)實(shí)現(xiàn)的。這迫使模型在最小化訓(xùn)練誤差的同時(shí),保持參數(shù)值較小或稀疏。

  • 嶺回歸(L2范數(shù))
from sklearn.linear_model import Ridge
model = make_pipeline(GaussianFeatures(30),Ridge(alpha=0.1))
basis_plot(model)
  • Lasso正則化(L1范數(shù))
from sklearn.linear_model import Lasso
model = make_pipeline(GaussianFeatures(30),Lasso(alpha=0.001))
basis_plot(model,title='Lasso Regression')

參考:
[1]美 萬(wàn)托布拉斯 (VanderPlas, Jake).Python數(shù)據(jù)科學(xué)手冊(cè)[M].人民郵電出版社,2018.

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 姓名:黃永飛;學(xué)號(hào):17040520006;學(xué)院:機(jī)電工程學(xué)院; 轉(zhuǎn)自: https://www.jianshu....
    嵌入式創(chuàng)新閱讀 683評(píng)論 0 0
  • 機(jī)器學(xué)習(xí)模型需要擁有很好地泛化能力來(lái)適應(yīng)訓(xùn)練集中沒有出現(xiàn)過(guò)的新樣本。在機(jī)器學(xué)習(xí)應(yīng)用時(shí),我們經(jīng)常會(huì)遇到過(guò)度擬合(ov...
    owolf閱讀 9,923評(píng)論 0 21
  • 向你的模型加入某些規(guī)則,加入先驗(yàn),縮小解空間,減小求出錯(cuò)誤解的可能性。你要把你的知識(shí)數(shù)學(xué)化告訴這個(gè)模型,對(duì)代價(jià)函數(shù)...
    dingtom閱讀 603評(píng)論 0 0
  • https://blog.csdn.net/liujiandu101/article/details/551038...
    dopami閱讀 1,100評(píng)論 0 1
  • 一、正則化基礎(chǔ) 正則化等價(jià)于結(jié)構(gòu)風(fēng)險(xiǎn)最小化,就是在經(jīng)驗(yàn)風(fēng)險(xiǎn)后面加上了表示模型復(fù)雜度的正則化項(xiàng)或懲罰項(xiàng)。 正則化的作...
    arrnos閱讀 1,795評(píng)論 0 4

友情鏈接更多精彩內(nèi)容