BGD,SGD及MBGD

BGD(批量梯度下降法

批梯度下降每次更新使用了所有的訓(xùn)練數(shù)據(jù),最小化損失函數(shù),如果只有一個極小值,那么批梯度下降是考慮了訓(xùn)練集所有數(shù)據(jù),是朝著最小值迭代運動的,但是缺點是如果樣本值很大的話,更新速度會很慢。

SGD(隨機梯度下降法

隨機梯度下降在每次更新的時候,只考慮了一個樣本點,這樣會大大加快訓(xùn)練數(shù)據(jù),也恰好是批梯度下降的缺點,但是有可能由于訓(xùn)練數(shù)據(jù)的噪聲點較多,那么每一次利用噪聲點進(jìn)行更新的過程中,就不一定是朝著極小值方向更新,但是由于更新多輪,整體方向還是大致朝著極小值方向更新,又提高了速度。

MBGD(min-batch 小批量梯度下降法

小批量梯度下降法是為了解決批梯度下降法的訓(xùn)練速度慢,以及隨機梯度下降法的準(zhǔn)確性綜合而來,但是這里注意,不同問題的batch是不一樣的。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容