文件名称:软演员关键和扩展:软演员关键和优先体验重播(PER)的PyTorch实施+强调最新经验(ERE)+蒙克豪森RL + D2RL和并行环境
文件大小:3.61MB
文件格式:ZIP
更新时间:2024-03-02 13:31:11
reinforcement-learning parallel-computing pytorch multi-environment reinforcement-learning-algorithms
软演员关键和扩展 PyTorch实施了具有扩展性PER + ERE + Munchausen RL的Soft-Actor-Critic ,并提供了用于并行数据收集和更快训练的多环境选项。 该存储库包括最新的Soft-Actor-Critic版本( )以及SAC的扩展: P rioritizedËxperienceřeplay( ) Èmphasizing最近几个Ë没有忘记过去(xperience ) Munchausen强化学习 D2RL:强化学习深密度架构 N步自举 平行环境 在ERE的书面实施中,作者使用的是较旧版本的SAC,而该存储库包含SAC的最新版本以及PER的按比例优先级实现。 去做: 将IQN评论家[X]与IQN评论家一起放慢10倍...需要修复该问题 添加D2DRL IQN评论家[] 用ray []创建分布式SAC版本 添加了N步自举[X] 检查所有附件
【文件预览】:
Soft-Actor-Critic-and-Extensions-master
----SAC_PER.py(19KB)
----run.py(8KB)
----LICENSE(1KB)
----SAC_ERE_PER.py(19KB)
----README.md(5KB)
----imgs()
--------.Pendulum-v0_Nstep.png(399KB)
--------SAC_MSAC_LL.png(670KB)
--------SAC_MSAC_Pendulum_.png(707KB)
--------.Pendulum-v0_D2RL_Munch_Nstep.png(391KB)
--------.Pendulum-v0_D2RL.png(407KB)
--------Base_D2RL_SAC.png(427KB)
--------.Pendulum-v0_Munch.png(392KB)
--------SAC_LLC.jpg(587KB)
--------SAC_PENDULUM.jpg(437KB)
----files()
--------Agent.py(25KB)
--------MultiPro.py(5KB)
--------__pycache__()
--------networks.py(15KB)
--------ReplayBuffers.py(9KB)
----SAC.py(18KB)