rl-actor-critic:Deep RL模块化演员评论家

时间:2024-03-13 23:30:09
【文件属性】:

文件名称:rl-actor-critic:Deep RL模块化演员评论家

文件大小:4.63MB

文件格式:ZIP

更新时间:2024-03-13 23:30:09

JupyterNotebook

深度强化学习-分布式模块化框架 一个模块化框架,可实现即插即用的RL思想实验。 该系统是模块化的,具有针对演员,评论家,记忆,代理等的可重用类。 探索和学习在单独的Docker实例中作为单独的流程运行。 这样就可以运行多个分布式资源管理器。 这些组件在一个位置连接在一起,例如 , 。 急切地使用Tensorflow2。 跑 启动两个docker镜像,一个运行Explorer,另一个运行Learner。 scripts/both.sh 结果


【文件预览】:
rl-actor-critic-master
----sum_tree.py(2KB)
----explorer.py(2KB)
----script()
--------explore.sh(156B)
--------install.sh(201B)
--------both.sh(1KB)
--------run.sh(33B)
--------learn.sh(171B)
----img()
--------BipedalWalker.gif(3.89MB)
--------LunarLander.webm(60KB)
--------BipedalWalker.webm(283KB)
--------LunarLander.gif(212KB)
--------td3.png(170KB)
--------RL.png(17KB)
----lstm_critic.py(2KB)
----monitor.py(3KB)
----dqn()
--------agent.py(2KB)
--------blueprint.py(3KB)
----run.py(3KB)
----memory.proto(255B)
----gym_wrapper()
--------quad_lunar.py(1KB)
--------__init__.py(0B)
----tools.ipynb(290KB)
----README.md(1KB)
----record_video.py(948B)
----gen()
--------memory.py(692B)
----base_model.py(572B)
----td3()
--------agent.py(3KB)
--------blueprint.py(3KB)
----redis.conf(60KB)
----lstm_actor.py(1KB)
----tests()
--------memory_test.py(2KB)
----.gitignore(114B)
----discrete_critic.py(2KB)
----dqn_actor.py(1KB)
----critic.py(1KB)
----memory.py(16KB)
----runnable.py(511B)
----actor.py(2KB)

网友评论