马尔科夫决策过程ppt课件.pptx

上传人:牧羊曲112 文档编号:1466850 上传时间:2022-11-28 格式:PPTX 页数:16 大小:1.48MB
返回 下载 相关 举报
马尔科夫决策过程ppt课件.pptx_第1页
第1页 / 共16页
马尔科夫决策过程ppt课件.pptx_第2页
第2页 / 共16页
马尔科夫决策过程ppt课件.pptx_第3页
第3页 / 共16页
马尔科夫决策过程ppt课件.pptx_第4页
第4页 / 共16页
马尔科夫决策过程ppt课件.pptx_第5页
第5页 / 共16页
点击查看更多>>
资源描述

《马尔科夫决策过程ppt课件.pptx》由会员分享,可在线阅读,更多相关《马尔科夫决策过程ppt课件.pptx(16页珍藏版)》请在三一办公上搜索。

1、马尔科夫决策过程(MDP),目录,强化学习简介马尔科夫决策过程值迭代和策略迭代马尔科夫模型的创建,简介,在强化学习中,提供了一个回报函数,用于告诉learning agent的行动做的是好是坏。例如对于一个四足爬行机器人,向前移动给它奖励,翻到或者向后退就给予惩罚。强化学习可用于自动驾驶、手机网络的路由选择、营销策略的选择以及工厂控制等领域。,马尔科夫决策过程,五元组(S, A, sa , , R)S:状态集合A:动作集合 sa :状态转移概率:阻尼系数(discount factor),取值在01之间R: S * A - R, 回报函数,有时也为S - R,马尔科夫决策过称为整个决策过程的回

2、报为如果回报函数只与状态有关,则回报为,马尔科夫决策过程的目标就是使整个决策过程的回报期望最大,即马尔科夫最终的结果就是得到一组策略,即在什么时候该做什么事。“策略”定义为: ,即 s =定义一个值函数 ,表示在某个策略下最终得到的回报根据Bellman equations, 上式可以表示为,最优回报根据Bellman equations,可以得到下式最优策略,得到最优策略,在知道马尔科夫五元组的情况下,可以通过两种算法得到最优策略,即值迭代和策略迭代这里只考虑有限状态和有限动作的情况。,值迭代,两种更新值函数的方法首先为所有状态计算新的V(s), 全部计算完成后,再一次性的替换原先旧的V(s

3、).(同步更新)每计算出一个V(s), 就用新的V(s)值替换旧的V(s)值。(异步更新)计算出最优值函数后,就可以根据下式计算最优策略,策略迭代,值迭代与策略迭代的区别,值迭代和策略迭代都是解决马尔科夫决策过程的标准算法小规模的MDP,策略迭代计算快速且收敛地也较快对于有大规模状态空间的MDP来说,计算 比较复杂,因此,值迭代较策略迭代好因此,在实际操作中,值迭代使用地更频繁,创建马尔科夫模型,在之前的讨论中,状态转移概率和回报函数都是已知的,然而在实际情况中,这两个变量是未知的,需要经过实验得到。,状态转移概率可以通过下式得到回报函数可以通过下式得到R(s) = 1 在状态获得的回报之和,未知状态转移概率情况下MDP算法,Thank you,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号