文件名称:multiagent-sac:在网球多主体Unity环境上实施集中培训,对软演员关键(SAC)进行集中执行
文件大小:1.23MB
文件格式:ZIP
更新时间:2024-05-02 23:12:57
reinforcement-learning multiagent-reinforcement-learning Python
多代理SAC 介绍 环境。 在这种环境下,两名特工控制球拍在球网上弹跳球。 如果探员将球击中网,则得到+0.1的奖励。 如果探员让一个球击中地面或将球击出界外,则其获得的奖励为-0.01。 因此,每个特工的目标是保持比赛中的球权。 观察空间由8个变量组成,分别对应于球和球拍的位置和速度。 每个代理都会收到自己的本地观察结果。 有两个连续的动作可用,分别对应于朝向(或远离)网络的运动和跳跃。 该任务是情节性的,并且为了解决环境,您的特工必须获得+0.5的平均分数(在两个特工均取得最高分后,连续100次以上)。 具体来说, 在每个情节之后,我们将每个代理商获得的奖励加起来(不打折),以获得每个代理商的得分。 这将产生2个(可能不同)的分数。 然后,我们取这两个分数中的最大值。 这为每个情节产生一个单一的分数。 当这些分数的平均值(超过100集)至少为+0.5时,就认为环境已解决。
【文件预览】:
multiagent-sac-master
----.gitignore(2KB)
----requirements.txt(2KB)
----model_weight()
--------mactor.pt(287KB)
--------mqf1.pt(286KB)
--------mqf2.pt(286KB)
--------mvf.pt(284KB)
----buffers()
--------buffer.py(2KB)
----models()
--------mactor_critic.py(3KB)
--------actor_critic.py(3KB)
--------network.py(532B)
----LICENSE(1KB)
----utils.py(21B)
----README.md(6KB)
----agents()
--------masac_agent.py(10KB)
--------dqn_agent.py(7KB)
--------sac_agent.py(9KB)
----plots()
--------masac_result1.png(62KB)
--------masac_loss1.png(34KB)
--------masac_result.png(73KB)
--------masac_loss.png(35KB)
----TennisEnvironment()
--------__init__.py(0B)
----main.py(1KB)