1.對于線性回歸,假設(shè)函數(shù)表示為:
,
其中:
為模型參數(shù)
為每個樣本的n個特征值
2.同樣是線性回歸,對應(yīng)于上面的假設(shè)函數(shù),代價(損失)函數(shù)為:
![]()
(PS: 為了評估模型擬合的好壞,通常用損失函數(shù)來度量擬合的程度。損失函數(shù)極小化,意味著擬合程度最好,對應(yīng)的模型參數(shù)即為最優(yōu)參數(shù)。在線性回歸中,損失函數(shù)通常為樣本輸出和假設(shè)函數(shù)的差取平方。)
3.通過求解代價函數(shù)的最小值, 得到與數(shù)據(jù)最匹配的擬合函數(shù)
4.通過梯度下降算法, 求解代價函數(shù)的最小值。
? ? 先決條件: 確認(rèn)優(yōu)化模型的假設(shè)函數(shù)和損失函數(shù)
? ? a. 初始化算法相關(guān)參數(shù):
? ? ? -,我喜歡將所有的θ初始化為0
? ? ? - 將步長α 初始化為1
? ? ? - 算法終止距離ε
? ? b. 算法過程:
? ? ? - 1)確定當(dāng)前位置的代價函數(shù)的梯度,對于θi,其梯度表達(dá)式如下:
? ? ?? ? ?![]()
? ? ? - 2) 用步長乘以損失函數(shù)的梯度,得到當(dāng)前位置下降的距離,即:
? ? ?? ? ?, 對應(yīng)于前面登山例子中的某一步。
? ? ? - 3) 確定是否所有的梯度下降都小于終止距離ε ?
? ? ?? ? ? ? ?- 都小于終止距離ε則算法終止,當(dāng)前所有的即為最終結(jié)果。
? ? ?? ? ? ? ?- 否則進(jìn)入步驟4
? ? ? - 4)更新所有的對于
, 更新完畢后繼續(xù)轉(zhuǎn)入步驟1。更新表達(dá)式為:
? ? ?? ? ?