文件名称:多智能体-DM-ICML-ACAI.pdf
文件大小:17.08MB
文件格式:PDF
更新时间:2023-08-29 13:28:47
强化学习入门,多智能体,强化学习
强化学习与多智能体入门读物,这篇文章对多智能体强化学习(MARL)的背景,目的,代表性的算法进行了调研,在这样一个环境中,每个智能体拥有独立的 Q network,独自采集数据并进行训练,都有对环境的全局观察,动作空间包含以下四个维度:上移、下移、保持不动以及击球(或称为开始游戏)。 作者为了全面的观察将 DQN 应用到多智能体环境下的各方面表现,通过设计回报函数的方式设计了完全协作环境、完全竞争环境以及非完全协作/竞争环境。具体回报函数设计如下: 完全协作环境:一方失球,则两方均获得 -1 的回报 完全竞争环境:一方失球,该方获得 -1 的回报;对方获得 +1 的回报 非完全协作/竞争环境:一方失球,该方获得 -1 的回报;对方获得 的回报 最终的实验结果表明,在完全协作环境中,智能体学到的策略是尽可能长时间的不失球;而在完全竞争环境中,智能体学到的是如何更好的得分(即让对方失球)。