global_step用法

主要是用在梯度下降中的學(xué)習(xí)率問題上,用來解決lr過大容易越過最優(yōu)值造成振蕩,lr過小造成收斂太慢并且可能達(dá)到局部最優(yōu)。

具體公式:

 decayed_learning_rate = learning_rate * decay_rate ^ (global_step / decay_steps)

上述公式中

  • decay_rate = 衰減系數(shù)
  • decay_steps = 完整使用一遍訓(xùn)練數(shù)據(jù)所需迭代論數(shù)
  • global_step = 當(dāng)前迭代的輪數(shù))

用于公式中的learning_rate、decay_rate以及decay_steps都是固定值,
可見decayed_learning_rate只與global_rate的變化有關(guān)

老規(guī)矩:

 global_step = tf.Variable(0)

# 通過exponential_decay函數(shù)生成學(xué)習(xí)率
learning_rate = tf.train.exponential_decay(0.1, global_step, 100, 0.96, staircase = True)

# 使用指數(shù)衰減的學(xué)習(xí)率。在minimize函數(shù)中傳入global_step將自動更新
# global_ste參數(shù),從而使得學(xué)習(xí)率也得到相應(yīng)更新
learning_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(..my loss.., global_step = global_step)

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 在模型訓(xùn)練DL模型時,隨著模型的epoch迭代,往往會推薦逐漸減小learning rate,在一些實驗中也證明確...
    EdwardLee閱讀 14,695評論 0 4
  • 文章作者:Tyan博客:noahsnail.com | CSDN | 簡書 聲明:作者翻譯論文僅為學(xué)習(xí),如有侵權(quán)請...
    SnailTyan閱讀 5,484評論 0 8
  • 洛陽地脈花最宜,牡丹尤為天下奇。繽紛四月,藍(lán)天,白云。沐浴在花海中,來一次與大自然最親密的接近,暢游龍門東山高山牡...
    許利紅閱讀 822評論 2 4
  • 2017.03.24 1.感恩父母幫助照顧孩子。 2.感恩兒子在磨練我的個性。 3.感恩先生的關(guān)心,為家努力付出 ...
    馮梓源閱讀 296評論 0 0
  • 昨天兒子遲到了,晚上我就告訴他早上不會再叫他,晚上也不會催促他睡覺,只要他覺得早上能起床就行,今早起床之后,開始洗...
    w小寶閱讀 357評論 0 0

友情鏈接更多精彩內(nèi)容