文件名称:connect4:使用深度强化学习解决Connect4之类的棋盘游戏
文件大小:261KB
文件格式:ZIP
更新时间:2024-05-22 13:36:22
deep-learning policy-gradient reinforcement-learning-algorithms convolutional-neural-networks residual-networks
使用RL解决棋盘游戏,例如Connect4 该存储库包含多种强化学习(RL)算法的实现,其中训练了一个人工神经网络(ANN)来玩诸如Connect4和TicTacToe之类的棋盘游戏。 该存储库的另一个目的是获得关于不同RL算法如何工作,其优缺点以及它们彼此不同的方式的全面直觉。 因此,为了支持通过调整超参数进行的实验,使用高度可定制的模块实现了通用的RL框架。 这个怎么运作 首先,使用诸如board_size之类的参数创建游戏对象。 接下来,创建两个玩家对象,它们将彼此对抗。 每个玩家对象都有其默认大脑,可以通过创建自定义大脑对象并将其分配给玩家来覆盖它。 脑对象是算法所在的地方。 接下来,创建一个环境对象,并将两个玩家以及游戏对象作为参数传递到该环境中。 最终,运行该环境,该环境运行游戏,从玩家那里获取动作,并将他们发送回游戏的下一个状态以及他们的动作奖励。 怎么跑 Git克隆
【文件预览】:
connect4-master
----images()
--------C4-4X5-ADQN.png(23KB)
--------C4-4X5-PG.png(50KB)
--------t3-Zero.png(23KB)
--------t3-DDQN.png(20KB)
--------t3-PG.png(36KB)
--------t3-ADQN.png(16KB)
--------C4-4X5-DDQN.png(28KB)
--------C4-6X7-Zero.png(28KB)
----LICENSE(1KB)
----src()
--------graphPlot.py(1KB)
--------logs()
--------logger.py(626B)
--------memory()
--------charts()
--------evaluator.py(1KB)
--------brains()
--------envThread.py(600B)
--------players()
--------__init__.py(0B)
--------settings.py(61B)
--------examples()
--------mathEq.py(1KB)
--------optimizer.py(562B)
--------environment.py(5KB)
--------cache.py(2KB)
--------games()
----requirements.txt(2KB)
----.gitignore(136B)
----README.md(8KB)