梯度下降(Gradient Descent)

梯度下降算法可以將代價函數(shù)J最小化。

為了說明問題,只使用θ0,θ1。


如圖所示,梯度下降會因?yàn)槌跏蓟牟煌@得不同的局部最優(yōu)解。


α被稱為學(xué)習(xí)速率,它在梯度下降算法中代表了我們下山時邁多大的步子。

正確的做法是同步更新θ0和θ1。不正確是因?yàn)橄扔嬎懔甩?sub>0而θ0更新會影響到θ1的計算。


微分項求導(dǎo)或偏導(dǎo),其實(shí)相當(dāng)于給θ一個增加或者減少的方向;而α決定了增加和減少的值,即步長大小。


α的大小不同,代表下降步子的大小不同,太大和太小都不好。


如果初始化已經(jīng)在局部最優(yōu)點(diǎn),那么θ不再變化,因?yàn)槲⒎猪椧呀?jīng)為0。

當(dāng)我們接近局部最低點(diǎn)時,微分項會變小,所以梯度下降會自動的采用較小的幅度。

梯度下降算法,可以用來最小化任何代價函數(shù)。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容