ml-正則化(regularization)

過(guò)擬合(over-fitting)

過(guò)擬合:過(guò)于強(qiáng)調(diào)擬合原始數(shù)據(jù),而丟失了算法的本質(zhì):預(yù)測(cè)新數(shù)據(jù)。

欠擬合 恰好 過(guò)擬合 三者對(duì)比

分類問(wèn)題中也存在類似的問(wèn)題:


解決辦法:

  • 丟棄一些不能幫助正確預(yù)測(cè)的特征
    手工選擇保留哪些特征或者使用一些模型選擇的算法(例如PCA)
  • 正則化(magnitude)
    保留所有的特征,但是減少參數(shù)的大小。

調(diào)整代價(jià)函數(shù)

回歸模型

正是高次項(xiàng)導(dǎo)致了過(guò)擬合的產(chǎn)生。
目標(biāo):讓高次項(xiàng)系數(shù)接近于0。
修改代價(jià)函數(shù):

\theta_3\theta_4設(shè)置懲罰

問(wèn)題:并不知道其中哪些特征需要懲罰
思路:對(duì)所有特征進(jìn)行懲罰,讓代價(jià)函數(shù)最優(yōu)化的軟件來(lái)選擇這些懲罰的程度。

注:通常不對(duì)\theta_0進(jìn)行懲罰。

分析:

  • \lambda過(guò)大,除\theta_0以外其他所有參數(shù)都較小,模型變成h_\theta(x)=\theta_0,是一條平行于x的直線,導(dǎo)致欠擬合。

正則化線性回歸

  • 梯度下降求解

可以看到,每次除了\theta_0以外\theta_i均在原有的算法更新規(guī)則的基礎(chǔ)上減少了一個(gè)額外的值。

  • 正規(guī)方程求解

正則化的邏輯回歸模型

對(duì)于邏輯回歸,也給代價(jià)函數(shù)J(\theta)增加一個(gè)正則化的表達(dá)式,得到:

增加一項(xiàng)

計(jì)算過(guò)程同上文的線性回歸,但是由于模型h_\theta(x)不同,所以二者有本質(zhì)不同。

注意:
\theta_0不參與任何一個(gè)正則化。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容