文件名称:dueling_dqn_lunar_lander
文件大小:2.05MB
文件格式:ZIP
更新时间:2024-03-21 22:34:54
JupyterNotebook
通过优先体验重播深度Q网络 概述 在这个项目中,我们建立了一个使用Experience Replay作为强化学习代理的Dueling Deep Q网络,以解决OpenAI Gym中离散的Lunar Lander环境。 这种环境的目标是使“月球着陆器”以零速度着陆在着陆垫上。 当平均奖励为+200点时,认为此任务已解决。 通过将q网络的q值分成两个称为状态值和动作优势的流,决斗深层q网络能够对q值进行更准确的预测。 优先级的体验重播使网络可以选择和培训具有较高td错误的体验,从而使培训重点放在重要的体验上。 该实现还使用固定的q目标和软更新网络来进一步稳定训练过程。 (此项目在python和tensorflow 2中实现,并且仅出于自我练习目的。) 依存关系 python 3.6.9 张量流2.2.0 OpenAI体育馆0.17.2 box2d-py 怎么跑 运行Dueling_D
【文件预览】:
dueling_dqn_lunar_lander-master
----Dueling_DQN_with_Prioritized_Experience_Replay.ipynb(648KB)
----LICENSE.txt(1KB)
----doc()
--------figure8.png(40KB)
--------figure0.png(73KB)
--------figure4.png(8KB)
--------figure2.png(304KB)
--------figure7.png(15KB)
--------before_train.gif(453KB)
--------figure5.png(47KB)
--------figure6.png(25KB)
--------after_train.gif(754KB)
--------figure3.png(17KB)
--------figure1.png(128KB)
----README.md(4KB)