lpcmatlab代码-MDPs_Value-Iteration:马尔可夫决策过程的值迭代算法

时间:2024-06-12 12:13:51
【文件属性】:

文件名称:lpcmatlab代码-MDPs_Value-Iteration:马尔可夫决策过程的值迭代算法

文件大小:929KB

文件格式:ZIP

更新时间:2024-06-12 12:13:51

系统开源

lpc matlab代码 :mountain: 马尔可夫决策过程的值迭代算法 该存储库的内容作为计算机科学理学硕士课程的学生要求的概率图形模型课程的一项分配项目。 这段代码的版本中提供的所有资源都是从您可以在参考部分找到的类书中获得的。 算法和信息的这种应用仅用于教育目的 描述: 实现值迭代算法以解决离散的马尔可夫决策过程。 教授: 博士 参与的学生: 马里奥·德·洛斯·桑托斯(Mario De Los Santos)。 Github :。 电子邮件: 指示 下载存储库的文件 验证C ++版本是否至少为C ++ 14 调用文档中标记的功能 以下算法基于教授提供的文档。 用作参考的书位于此文件的末尾。 值迭代算法包括根据Bellman方程迭代地估计每个状态s的值。 下图显示了用于创建该项目的伪代码。 Policy迭代算法由基于Bellman方程迭代地估算每个状态s的值组成,主要区别在于我们将Policy存储在每次迭代中,这将使我们可以将迭代(t)与(t-1)进行比较),那么如果政策相同,则我们将完成该过程,这将以存储成本为您带来计算速度上的优势。 图像2显示了用于创建该项目的伪代码。 示例需要调用该类,如


【文件预览】:
MDPs_Value-Iteration-main
----Source_code()
--------2021_MGP_Project5_MDPs_Value-Iteration.cpp(17KB)
----LICENSE(34KB)
----README.md(4KB)
----Images()
--------Example_class.PNG(34KB)
--------Bellmans_equation.PNG(12KB)
--------Example_bot.PNG(71KB)
--------Algorithm_pseudocode1.PNG(52KB)
--------Example_bot_states.PNG(111KB)
--------Example_values.PNG(15KB)
--------Example_bot_solved.png(339KB)
--------Example_bear_solved.PNG(15KB)
--------Algorithm_pseudocode.PNG(42KB)
--------Example_bot_Policy.PNG(6KB)
--------Example_bot_iteraction.PNG(133KB)
--------Example_bot_code.PNG(34KB)
--------Example_bear_policy.PNG(12KB)
--------Example_bear_code.PNG(66KB)
--------Example_bear.PNG(42KB)

网友评论