過擬合欠擬合及其解決方案

模型選擇、欠擬合和過擬合

由于無法從訓(xùn)練誤差估計泛化誤差,一味地降低訓(xùn)練誤差并不意味著泛化誤差一定會降低

機(jī)器學(xué)習(xí)模型應(yīng)關(guān)注降低泛化誤差。 可以使用驗證數(shù)據(jù)集來進(jìn)行模型選擇

欠擬合指模型無法得到較低的訓(xùn)練誤差,過擬合指模型的訓(xùn)練誤差遠(yuǎn)小于它在測試數(shù)據(jù)集上的誤差

?應(yīng)選擇復(fù)雜度合適的模型并避免使用過少的訓(xùn)練樣本

權(quán)重衰減

正則化通過為模型損失函數(shù)添加懲罰項使學(xué)出的模型參數(shù)值較小,是應(yīng)對過擬合的常用手段

?權(quán)重衰減等價于L2范數(shù)正則化,通常會使學(xué)到的權(quán)重參數(shù)的元素較接近0

?權(quán)重衰減可以通過優(yōu)化器中的weight_decay超參數(shù)來指定

?可以定義多個優(yōu)化器實例對不同的模型參數(shù)使用不同的迭代方法

丟棄法

我們可以通過使用丟棄法應(yīng)對過擬合

丟棄法只在訓(xùn)練模型時使用

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 機(jī)器學(xué)習(xí)的目的是開發(fā)出能夠很好泛化到測試數(shù)據(jù)(或者之前從未見過的數(shù)據(jù))的模型,過擬合是指當(dāng)訓(xùn)練周期達(dá)到一定的迭代次...
    素娜93閱讀 1,968評論 0 0
  • 文章代碼來源:《deep learning on keras》,非常好的一本書,大家如果英語好,推薦直接閱讀該書,...
    抄書俠閱讀 2,420評論 0 0
  • 與之前一樣,此示例中的代碼將使用tf.keras API,您可以在TensorFlow Keras指南中了解更多信...
    AnuoF閱讀 1,128評論 0 2
  • 以我們前面講述的線性回歸為例,比如我們在訓(xùn)練集上訓(xùn)練出最優(yōu)的模型,但是當(dāng)我們將其使用到測試集時,測試的誤差很大,我...
    nightwish夜愿閱讀 14,565評論 0 5
  • 感恩~心陽邀請趙老師讓會員們體驗一次神奇的團(tuán)體成長活動,我第一次了解到歐文-龍團(tuán)體療法,成長路上新鮮的體驗不斷。 ...
    毛毛細(xì)雨mmxy閱讀 131評論 0 0

友情鏈接更多精彩內(nèi)容