文件名称:pytorch-cpp-rl:PyTorch C ++强化学习
文件大小:464KB
文件格式:ZIP
更新时间:2024-02-18 11:20:05
reinforcement-learning cplusplus cpp pytorch reinforcement-learning-algorithms
CppRl-PyTorch C ++强化学习 上图:经过我的笔记本电脑训练60秒后在LunarLander-v2上获得的结果 CppRl是一个增强学习框架,使用编写。 这是非常严重基于。 您甚至可以将其视为端口。 API和基础算法几乎是相同的(向C ++迁移时需要进行必要的更改)。 它还包含一个简单的OpenAI Gym服务器的实现,该服务器通过进行通信以在Gym环境中测试该框架。 CppRl旨在成为一个可扩展的,合理优化的,可立即投入生产的框架,用于在Python不可行的项目中使用强化学习。 它应已准备好在用户计算机上的桌面应用程序中使用,并且只需在用户侧进行最少的设置即可。 动机 在撰写本文时,尚无用于C ++的通用增强学习框架。 我需要一个用于个人项目,最近发布了PyTorch C ++前端,因此我认为我应该这样做。 特征 实现的算法: A2C PPO 经常性政策(基于GRU) 持续控制 离散控制 跨平台兼容性(已在Windows 10,Ubuntu 16.04和Ubuntu 18.04上测试) 可靠的测试范围 体面的优化(尽管总是可以拉取请求以改善优化) 例
【文件预览】:
pytorch-cpp-rl-master
----imgs()
--------lunar_lander.gif(434KB)
----.gitmodules(322B)
----gym_server()
--------zmq_client.py(930B)
--------__init__.py(0B)
--------server.py(4KB)
--------envs.py(5KB)
--------messages.py(2KB)
----src()
--------running_mean_std.cpp(3KB)
--------algorithms()
--------generators()
--------model()
--------distributions()
--------CMakeLists.txt(594B)
--------storage.cpp(24KB)
--------observation_normalizer.cpp(7KB)
--------third_party()
----CMakeLists.txt(2KB)
----.travis.yml(1KB)
----example()
--------requests.h(2KB)
--------communicator.cpp(724B)
--------lib()
--------CMakeLists.txt(605B)
--------gym_client.cpp(12KB)
--------third_party()
--------communicator.h(1KB)
----LICENSE(1KB)
----README.md(3KB)
----appveyor.yml(684B)
----.gitignore(41B)
----launch_gym_server.py(1KB)
----include()
--------cpprl()
----CppCheckSuppressions.txt(92B)