pytorch-DQN:DQN的Pytorch实现

时间:2024-05-04 05:45:52
【文件属性】:

文件名称:pytorch-DQN:DQN的Pytorch实现

文件大小:1.5MB

文件格式:ZIP

更新时间:2024-05-04 05:45:52

Python

pytorch-DQN DQN的Pytorch实现 DQN 最初的Q学习使用表格方法(有关更多详细信息和实现,请参见 )来解决,但是,表格Q学习的问题在状态增长时出现因为table不足以存储环境中给定的数亿个状态。 例如,环境为210x180黑白像素的游戏。 将有$ 2 ^ {180 * 210} $个可能的状态,对于一个表来说,这太多了。 DeepMind通过深度神经网络以DQN形式将DQN形式的深度学习和Q学习相结合,以近似值,首先在游戏中击败人类。 简而言之,DQN用深度神经网络(CNN或DNN)替换了表格,并使用目标网络来执行Bellman方程更新。 为了实现它,使用了一些技巧,例如目标网络和体验重播。 引入目标网络以收敛模型,因为频繁更新会使模型处于不稳定状态。 体验重播使用缓冲区存储所有过去(状态,动作,next_state)对,并通过对过去的体验进行采样来训练模型,这有


【文件预览】:
pytorch-DQN-main
----CartPole-v0.pth(74KB)
----train.py(4KB)
----agent.py(4KB)
----experience_replay.py(1KB)
----test.py(113B)
----images()
--------mountainCar_result.gif(358KB)
--------MountainCar.png(126KB)
--------DQN.png(122KB)
--------cartpole_result.gif(675KB)
--------CartPole-v0-reward.svg(83KB)
--------MountainCar-v0-reward.svg(85KB)
--------CartPole-v0.gif(143KB)
----Q_network.py(1016B)
----.vscode()
--------settings.json(78B)
----Q_network_pong.py(2KB)
----train_Pong.py(5KB)
----LICENSE(1KB)
----eval.py(2KB)
----README.md(4KB)
----runs()
--------Mar18_14-56-52_WilliamdeMacBook-Pro.local()
--------Mar18_14-53-31_WilliamdeMacBook-Pro.local()
----agent_pong.py(4KB)
----.gitignore(2KB)
----MountainCar-v0.pth(74KB)

网友评论

  • 用户下载后在一定时间内未进行评价,系统默认好评。