梯度下降法

一、梯度下降的主要內(nèi)容

1.梯度下降的需求場景

每個模型都有自己的損失函數(shù),可以想象成包含若干參數(shù)的f(x),我們在做機器學習時,都要去找能夠使得損失函數(shù)盡可能小的參數(shù),使得模型達到最優(yōu)化的效果。梯度下降算法是對原始模型的損失函數(shù)進行優(yōu)化,便于找到最優(yōu)的參數(shù),使得損失函數(shù)最小。

2.梯度下降的定義

梯度是多元函數(shù)的導數(shù),分別對每個變量進行微分,用逗號隔開,形成一個向量。

梯度是指向誤差值增長最快的方向,如果在梯度前面加負號,則是指向誤差值下降最快的方向。


二、對梯度下降的理解

類似于一個下山的過程

梯度下降就是從群山中山頂找一條最短的路走到山谷最低的方法,主要確定連個變量,每次走的步長,每次選擇最陡的方向。


三.梯度算法在線性回歸中的應用

線性回歸:對樣本點進行線性擬合,求得使預測盡可能準確的函數(shù)。

通過梯度下降法來求解損失函數(shù)


目標函數(shù)如下,需要使得目標函數(shù)盡可能小


進行整理得到如下

對上式進行求導

進一步轉化



對整體除以m,目標函數(shù)轉為下式,也為MSE

最終的表達式如下:


?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容