文件名称:WALL-E:高效而简单的强化学习研究框架的代码库
文件大小:838KB
文件格式:ZIP
更新时间:2024-05-23 09:08:26
reinforcement-learning Python
瓦力() 主要贡献者:徐天兵(加利福尼亚百度研究公司)发起该项目,编写大部分代码。 合作者:赵亮(加利福尼亚州百度研究公司),安德鲁·张(斯坦福大学),张书南(苹果)。 高效,快速而简单的强化学习研究框架代码库,在机器人技术及其后续领域中都有潜在的应用程序。 动机: 这是一个长期的“再学习”项目,致力于开发高效而简单的RL框架,以支持正在进行的与系统,方法论等相关的RL研究。 第一个完成的里程碑是通过多进程体系结构支持加快RL。 在RL中,通过在环境MDP上运行策略来收集经验的时间是一个瓶颈,与在GPU上进行策略学习的计算相比,要花费更多的时间。 借助多进程支持,我们能够并行收集经验,从而将数据收集时间减少了近乎线性的因素。 强化学习架构设计 一般强化学习框架 根据Sampler生成的经验,代理负责更新策略。 采样器负责通过在环境MDP上执行,从更新的策略中产生经验。 带有多进程
【文件预览】:
WALL-E-master
----hooks()
--------pre-commit(5KB)
----conda_walle.yml(8KB)
----src()
--------main.py(4KB)
--------experiment()
--------policy()
--------memory()
--------run_parallel_main.py(5KB)
--------agent()
--------env()
--------util()
--------optimizer()
----requirements.txt(992B)
----.gitignore(72B)
----start.sh(196B)
----walle_report.pdf(260KB)
----README.md(5KB)
----Doc()
--------speedup.png(29KB)
--------walle-arch-multi.png(88KB)
--------learn-time.png(19KB)
--------cmp-cheetah-n=10-vs-1.png(30KB)
--------multi_proc_RL.jpg(67KB)
--------rollout-time.png(20KB)
--------walle-arch.png(32KB)
--------time-percentage.png(29KB)
--------report.pdf(240KB)
--------RLFramework.jpg(47KB)
----.pre-commit-config.yaml(740B)