面試題:批量梯度下降和隨機梯度下降法的缺點

http://www.itdecent.cn/p/d7d06edb7061


背景

????批量梯度下降法(batch gradient decent)就是我們平時所說的梯度下降,也就是梯度下降過程中,每次更新使用了所有的訓練數(shù)據(jù),最小化損失函數(shù),找到局部最小值。

當樣本量很大的時候,那么更新速度會變慢。假如每次我們只取一個樣本更新,這樣速度就會快很多。我們每次只取一行樣本計算,當成是搜索的方向。

問題解答

批量梯度下降??

a)采用所有數(shù)據(jù)來梯度下降。??

b)批量梯度下降法在樣本量很大的時候,訓練速度慢。??

隨機梯度下降??

a)隨機梯度下降用一個樣本來梯度下降。??

b)訓練速度很快。??

c)隨機梯度下降法僅僅用一個樣本決定梯度方向,導致解有可能不是全局最優(yōu)。??

d)收斂速度來說,隨機梯度下降法一次迭代一個樣本,導致迭代方向變化很大,不能很快的收斂到局部最優(yōu)解。??

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
【社區(qū)內容提示】社區(qū)部分內容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發(fā)布,文章內容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內容

友情鏈接更多精彩內容