dqn-lambda:NeurIPS 2019

时间:2024-05-24 13:12:54
【文件属性】:

文件名称:dqn-lambda:NeurIPS 2019

文件大小:25KB

文件格式:ZIP

更新时间:2024-05-24 13:12:54

tensorflow deep-reinforcement-learning openai-gym cartpole deep-q-network

DQN(λ)—通过经验重播调和λ返回 DQN(λ)是[ ]中提出的思想的实例,它扩展了DQN [ ]以有效利用各种类型的λ返回[ ]。 这些可以显着提高样品效率。 如果您在已发表的作品中使用此存储库,请引用以下文章: @inproceedings{daley2019reconciling, title={Reconciling $\lambda$-Returns with Experience Replay}, author={Daley, Brett and Amato, Christopher}, booktitle={Advances in Neural Information Processing Systems}, pages={1133--1142}, year={2019} } 内容 设置 该存储库需要Python3。要自动安装可用的软件包版本,


【文件预览】:
dqn-lambda-master
----q_functions.py(1KB)
----run_dqn_control.py(1KB)
----utils.py(4KB)
----tests()
--------test_replay_memory.py(4KB)
--------test_replay_memory_legacy.py(1KB)
----replay_memory_legacy.py(2KB)
----dqn.py(5KB)
----LICENSE(1KB)
----run_dqn_atari.py(6KB)
----wrappers.py(5KB)
----requirements.txt(85B)
----.gitignore(26B)
----README.md(7KB)
----scripts()
--------_plot.yaml(11KB)
--------automate.py(5KB)
--------plot.py(6KB)
--------_automate.yaml(1KB)
----return_calculation.py(1KB)
----replay_memory.py(11KB)

网友评论