機(jī)器學(xué)習(xí)4:局部加權(quán)回歸

參數(shù)學(xué)習(xí)算法,非參數(shù)學(xué)習(xí)算法

參數(shù)學(xué)習(xí)算法,用固定的明確的參數(shù)進(jìn)行數(shù)據(jù)的擬合。比如線性回歸。
非參數(shù)學(xué)習(xí)算法,使用的參數(shù)隨著訓(xùn)練樣本的增多而增多。比如:局部加權(quán)回歸

局部加權(quán)回歸

局部加權(quán)回歸的損失函數(shù)為


1

其中w(i)是權(quán)重,它根據(jù)要預(yù)測(cè)的點(diǎn)與數(shù)據(jù)集中的點(diǎn)的距離來(lái)為數(shù)據(jù)集中的點(diǎn)賦權(quán)值。當(dāng)某點(diǎn)離要預(yù)測(cè)的點(diǎn)越遠(yuǎn),其權(quán)重越小,否則越大。一個(gè)比較好的權(quán)重函數(shù)如下:


2

該函數(shù)稱為指數(shù)衰減函數(shù),其中k為波長(zhǎng)參數(shù),它控制了權(quán)值隨距離下降的速率。

特征量標(biāo)準(zhǔn)化

數(shù)值計(jì)算是通過(guò)計(jì)算來(lái)迭代逼近的,如果特征量數(shù)量級(jí)相差太大,則很容易在運(yùn)算過(guò)程中丟失。
出于這樣的原因,我們需要通過(guò)預(yù)處理,讓初始的特征量具有同等的地位,才能讓機(jī)器學(xué)習(xí)算法更快地學(xué)習(xí)得到它們的權(quán)重θ,這個(gè)預(yù)處理的過(guò)程我們稱之為數(shù)據(jù)標(biāo)準(zhǔn)化(Normalization)
方法1:特征縮放


3

通過(guò)這個(gè)公式,我們可以將數(shù)據(jù)縮放為[-1,1]的范圍。

方法2:均值歸一化


4

吳恩達(dá)“機(jī)器學(xué)習(xí)”——學(xué)習(xí)筆記二
【機(jī)器學(xué)習(xí)】局部加權(quán)線性回歸
吳恩達(dá)《機(jī)器學(xué)習(xí)》課程學(xué)習(xí)筆記(三)—— 多元線性回歸與多項(xiàng)式回歸

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容