Multiagent cooperation and competition with deep reinforcement learning

論文復(fù)現(xiàn) :

tensorflow_2player_pong

論文詳述

Multiagent cooperation and competition with deep reinforcement learning

pong game-two agents

  • 基礎(chǔ)模型:pong game, two agents
  • 算法結(jié)構(gòu):dqn
    • reward:scoring:(-1,1) conceding(-1)
      未擊中球得-1,擊中球得分between (-1,1)
      雙方均擊中球得分0,游戲繼續(xù)
reward
  • 訓(xùn)練參數(shù)
    • 50 epochs, 250000 time steps each.
    • exploration rate: 1.0 to 0.05(in the 1000000 time steps) and stays fixed at that value
parameters.png
  • 結(jié)果分析
    • 是否收斂:monitor average maximal Q-values of 500 randomly selected game situations, set aside before training begins


      Q values
    • 訓(xùn)練效果反饋:

      • Average paddle-bounces per point 在一方得分前球在players間來回的次數(shù)
      • Average wall-bounces per paddle-bounce 球在到達(dá)一方前撞墻的次數(shù)
      • Average serving time per point 球丟了以后players restart game的反應(yīng)時間(一些rewarding scheme下players不希望重啟游戲,serving time很長,如p = -1)

結(jié)果分析

  • scoring = -1時,雙方為合作狀態(tài)(均不希望球掉落)
    最終雙方均升至頁面最上方,球水平傳來傳去
    合作模式video-youtube
    1.png
  • scoring = 1時,雙方為競爭模式(希望自己多得分)
    競爭模式video-youtube
    2.png
  • p range from -1 to 1
3.png
  • multiplayer dqn vs single-player
    (score表示a勝b的得分)


    4

本文遵守知識共享協(xié)議:署名-非商業(yè)性使用-相同方式共享 (BY-NC-SA)簡書協(xié)議
轉(zhuǎn)載請注明:作者空空格格,首發(fā)簡書 Jianshu.com

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容