当前位置: 首页 > news >正文

中国空间站太小了手机网站被禁止访问怎么打开网页

中国空间站太小了,手机网站被禁止访问怎么打开网页,网站网络营销方式,广东新闻联播2019【入门#xff0c;来自wiki】 强化学习是机器学习中的一个领域#xff0c;强调如何基于环境而行动#xff0c;以取得最大化的预期利益。其灵感来源于心理学中的行为主义理论#xff0c;即有机体如何在环境给予的奖励或惩罚的刺激下#xff0c;逐步形成对刺激的预期#x…【入门来自wiki】 强化学习是机器学习中的一个领域强调如何基于环境而行动以取得最大化的预期利益。其灵感来源于心理学中的行为主义理论即有机体如何在环境给予的奖励或惩罚的刺激下逐步形成对刺激的预期产生能获得最大利益的习惯性行为。这个方法具有普适性因此在其他许多领域都有研究例如博弈论、控制论、运筹学、信息论、模拟优化方法、多主体系统学习、群体智能、统计学以及遗传算法。在运筹学和控制理论研究的语境下强化学习被称作“近似动态规划”approximate dynamic programmingADP。在最优控制理论中也有研究这个问题虽然大部分的研究是关于最优解的存在和特性并非是学习或者近似方面。在经济学和博弈论中强化学习被用来解释在有限理性的条件下如何出现平衡。 在机器学习问题中环境通常被规范为马可夫决策过程MDP所以许多强化学习算法在这种情况下使用动态规划技巧。传统的技术和强化学习算法的主要区别是后者不需要关于MDP的知识而且针对无法找到确切方法的大规模MDP。 强化学习和标准的监督式学习之间的区别在于它并不需要出现正确的输入/输出对也不需要精确校正次优化的行为。强化学习更加专注于在线规划需要在探索在未知的领域和遵从现有知识之间找到平衡。强化学习中的“探索-遵从”的交换在多臂老-虎-机问题和有限MDP中研究得最多。   基本的强化学习模型包括 环境状态的集合;动作的集合;在状态之间转换的规则规定转换后“即时奖励”的规则描述主体能够观察到什么的规则。规则通常是随机的。主体通常可以观察即时奖励和最后一次转换。在许多模型中主体被假设为可以观察现有的环境状态这种情况称为“完全可观测”full observability反之则称为“部分可观测”partial observability。有时主体被允许的动作是有限的例如你使用的钱不能多于你所拥有的。 强化学习的主体与环境基于离散的时间步长相作用。在每一个时间主体接收到一个观测通常其中包含奖励。然后它从允许的集合中选择一个动作然后送出到环境中去。环境则变化到一个新的状态然后决定了和这个变化相关联的奖励。强化学习主体的目标是得到尽可能多的奖励。主体选择的动作是其历史的函数它也可以选择随机的动作。 将这个主体的表现和自始自终以最优方式行动的主体相比较它们之间的行动差异产生了“悔过”的概念。如果要接近最优的方案来行动主体必须根据它的长时间行动序列进行推理例如要最大化我的未来收入我最好现在去上学虽然这样行动的即时货币奖励为负值。 因此强化学习对于包含长期反馈的问题比短期反馈的表现更好。它在许多问题上得到应用包括机器人控制、电梯调度、电信通讯、双陆棋和西洋跳棋。[1] 强化学习的强大能来源于两个方面使用样本来优化行为使用函数近似来描述复杂的环境。它们使得强化学习可以使用在以下的复杂环境中 模型的环境未知且解析解不存在仅仅给出环境的模拟模型模拟优化方法的问题[2]从环境中获取信息的唯一办法是和它互动。前两个问题可以被考虑为规划问题而最后一个问题可以被认为是genuine learning问题。使用强化学习的方法这两种规划问题都可以被转化为机器学习问题。  【以下转自Kintoki博客】 增强学习一 ----- 基本概念 机器学习算法大致可以分为三种     1. 监督学习(如回归分类)     2. 非监督学习(如聚类降维)     3. 增强学习 什么是增强学习呢 增强学习reinforcementlearning, RL又叫做强化学习是近年来机器学习和智能控制领域的主要方法之一。 定义: Reinforcement learning is learning what to do ----how to map situations to actions ---- so as to maximize a numerical reward signal.[1]   也就是说增强学习关注的是智能体如何在环境中采取一系列行为从而获得最大的累积回报。 通过增强学习一个智能体应该知道在什么状态下应该采取什么行为。RL是从环境状态到动作的映射的学习我们把这个映射称为策略。 那么增强学习具体解决哪些问题呢我们来举一些例子 例1. flappy bird 是现在很流行的一款小游戏不了解的同学可以点链接进去玩一会儿。现在我们让小鸟自行进行游戏但是我们却没有小鸟的动力学模型也不打算了解它的动力学。要怎么做呢 这时就可以给它设计一个增强学习算法然后让小鸟不断的进行游戏如果小鸟撞到柱子了那就获得-1的回报否则获得0回报。通过这样的若干次训练我们最终可以得到一只飞行技能高超的小鸟它知道在什么情况下采取什么动作来躲避柱子。 例2. 假设我们要构建一个下国际象棋的机器这种情况不能使用监督学习首先我们本身不是优秀的棋手而请象棋老师来遍历每个状态下的最佳棋步则代价过于昂贵。其次每个棋步好坏判断不是孤立的要依赖于对手的选择和局势的变化。是一系列的棋步组成的策略决定了是否能赢得比赛。下棋过程的唯一的反馈是在最后赢得或是输掉棋局时才产生的。这种情况我们可以采用增强学习算法通过不断的探索和试错学习增强学习可以获得某种下棋的策略并在每个状态下都选择最有可能获胜的棋步。目前这种算法已经在棋类游戏中得到了广泛应用。 可以看到增强学习和监督学习的区别主要有以下两点 1.  增强学习是试错学习(Trail-and-error)由于没有直接的指导信息智能体要以不断与环境进行交互通过试错的方式来获得最佳策略。 2.  延迟回报增强学习的指导信息很少而且往往是在事后最后一个状态才给出的这就导致了一个问题就是获得正回报或者负回报以后如何将回报分配给前面的状态。   增强学习是机器学习中一个非常活跃且有趣的领域相比其他学习方法增强学习更接近生物学习的本质因此有望获得更高的智能这一点在棋类游戏中已经得到体现。Tesauro(1995)描述的TD-Gammon程序使用增强学习成为了世界级的西洋双陆棋选手。这个程序经过150万个自生成的对弈训练后已经近似达到了人类最佳选手的水平并在和人类顶级高手的较量中取得40 盘仅输1盘的好成绩。 下篇我们正式开始学习增强学习首先介绍一下马尔可夫决策过程。   参考资料 [1] R.Sutton et al. Reinforcement learning: An introduction , 1998 [2] T.Mitchell. 《机器学习》2003 [3] Andrew Ng.CS229: Machine learning  Lecture notes 增强学习二----- 马尔可夫决策过程MDP 1. 马尔可夫模型的几类子模型   大家应该还记得马尔科夫链(Markov Chain)了解机器学习的也都知道隐马尔可夫模型(Hidden Markov ModelHMM)。它们具有的一个共同性质就是马尔可夫性(无后效性)也就是指系统的下个状态只与当前状态信息有关而与更早之前的状态无关。   马尔可夫决策过程(Markov Decision Process, MDP)也具有马尔可夫性与上面不同的是MDP考虑了动作即系统下个状态不仅和当前的状态有关也和当前采取的动作有关。还是举下棋的例子当我们在某个局面状态s走了一步(动作a)这时对手的选择导致下个状态s’我们是不能确定的但是他的选择只和s和a有关而不用考虑更早之前的状态和动作即s’是根据s和a随机生成的。   我们用一个二维表格表示一下各种马尔可夫子模型的关系就很清楚了  不考虑动作考虑动作状态完全可见马尔科夫链(MC)马尔可夫决策过程(MDP)状态不完全可见隐马尔可夫模型(HMM)不完全可观察马尔可夫决策过程(POMDP)2. 马尔可夫决策过程 一个马尔可夫决策过程由一个四元组构成M (S, A, Psa, R ) [注1] S: 表示状态集(states)有s∈Ssi表示第i步的状态。A:表示一组动作(actions)有a∈Aai表示第i步的动作。Psa: 表示状态转移概率。Psa 表示的是在当前s ∈ S状态下经过a ∈ A作用后会转移到的其他状态的概率分布情况。比如在状态s下执行动作a转移到s的概率可以表示为p(s|s,a)也可以说s‘的分布服从Psa。R: S×A€ℝ R是回报函数(reward function)。有些回报函数状态S的函数可以简化为R: S € ℝ。如果一组(s,a)转移到了下个状态s那么回报函数可记为r(s|s, a)。如果(s,a)对应的下个状态s是唯一的那么回报函数也可以记为r(s,a)。这里分为确定性和不确定。确定性的回报即当在s下执行a时下个状态s’是确定的而不确定性的回报是指当在s下执行a时下个状态s’是不确定的即带概率的这时我们需要用确定的期望值来代替不确定即 E(r(s|s, a)) Σs1[p(s1|s,a) * r(s1|s,a)]   MDP 的动态过程如下某个agent(智能体也翻译成代理、学习者)的初始状态为s0然后从 A 中挑选一个动作a0执行执行后agent 按Psa概率随机转移到了下一个s1状态s1∈ Ps0a0。然后再执行一个动作a1就转移到了s2接下来再执行a2…我们可以用下面的图表示状态转移的过程。 如果回报r是根据状态s和动作a得到的则MDP还可以表示成下图 3. 值函数(value function)   上篇我们提到增强学习学到的是一个从环境状态到动作的映射即行为策略记为策略π: S→A。而增强学习往往又具有延迟回报的特点: 如果在第n步输掉了棋那么只有状态sn和动作an获得了立即回报r(sn,an)-1前面的所有状态立即回报均为0。所以对于之前的任意状态s和动作a立即回报函数r(s,a)无法说明策略的好坏。因而需要定义值函数(value function又叫效用函数)来表明当前状态下策略π的长期影响即描述agent以原策略π进行前瞻性搜索后的长期回报。   用Vπ(s)表示策略π下状态s的值函数。ri 表示未来第i步的立即回报常见的值函数有以下三种 a) b) c) 其中 a)是采用策略π的情况下未来有限h步的期望立即回报总和 b)是采用策略π的情况下期望的平均回报 c)是值函数最常见的形式式中γ∈[0,1]称为折合因子表明了未来的回报相对于当前回报的重要程度。特别的γ0时相当于只考虑立即不考虑长期回报γ1时将长期回报和立即回报看得同等重要。接下来我们只讨论第三种形式   现在将值函数的第三种形式展开其中ri表示未来第i步回报s表示下一步状态则有 给定策略π和初始状态s则动作aπ(s)下个时刻将以概率p(s|s,a)转向下个状态s那么上式的期望可以拆开可以重写为 上面提到的值函数称为状态值函数(state value function)需要注意的是在Vπ(s)中π和初始状态s是我们给定的而初始动作a是由策略π和状态s决定的即aπ(s)。 定义动作值函数(action value functionQ函数)如下 给定当前状态s和当前动作a在未来遵循策略π那么系统将以概率p(s|s,a)转向下个状态s上式可以重写为 在Qπ(s,a)中不仅策略π和初始状态s是我们给定的当前的动作a也是我们给定的这是Qπ(s,a)和Vπ(a)的主要区别。 知道值函数的概念后一个MDP的最优策略可以由下式表示 即我们寻找的是在任意初始条件s下能够最大化值函数的策略π*。 4. 值函数与Q函数计算的例子   上面的概念可能描述得不够清晰接下来我们实际计算一下如图所示是一个格子世界我们假设agent从左下角的start点出发右上角为目标位置称为吸收状态(Absorbing state)对于进入吸收态的动作我们给予立即回报100对其他动作则给予0回报折合因子γ的值我们选择0.9。   为了方便描述记第i行第j列的状态为sij, 在每个状态有四种上下左右四种可选的动作分别记为au,ad,al,ar。updownleftright首字母并认为状态按动作a选择的方向转移的概率为1。 1.由于状态转移概率是1每组(s,a)对应了唯一的s。回报函数r(s|s,a)可以简记为r(s,a) 如下所示每个格子代表一个状态s箭头则代表动作a旁边的数字代表立即回报可以看到只有进入目标位置的动作获得了回报100其他动作都获得了0回报。 即r(s12,ar) r(s23,au) 100。   2. 一个策略π如图所示   3. 值函数Vπ(s)如下所示 根据Vπ的表达式立即回报和策略π有 Vπ(s12)  r(s12,ar) r(s13|s12,ar)  100  Vπ(s11) r(s11,ar)γ*Vπ(s12) 00.9*100 90 Vπ(s23) r(s23,au) 100  Vπ(s22) r(s22,ar)γ*Vπ(s23) 90  Vπ(s21) r(s21,ar)γ*Vπ(s22) 81 4. Q(s,a)值如下所示 有了策略π和立即回报函数r(s,a), Qπ(s,a)如何得到的呢 对s11计算Q函数用到了上面Vπ的结果如下 Qπ(s11,ar)r(s11,ar) γ *Vπ(s12)  00.9*100 90 Qπ(s11,ad)r(s11,ad) γ *Vπ(s21)  72   至此我们了解了马尔可夫决策过程的基本概念知道了增强学习的目标获得任意初始条件下使Vπ值最大的策略π*下一篇开始介绍求解最优策略的方法。 PS:发现写东西还是蛮辛苦的希望对大家有帮助。另外自己也比较菜没写对的地方欢迎指出~~   [注]采用折合因子作为值函数的MDP也可以定义为五元组M(S, A, P, γ, R)。也有的书上把值函数作为一个因子定义五元组。还有定义为三元组的不过MDP的基本组成元素是不变的。 参考资料 [1] R.Sutton et al. Reinforcement learning: An introduction , 1998 [2] T.Mitchell. 《机器学习》2003 [3] 金卓军逆向增强学习和示教学习算法研究及其在智能机器人中的应用[D]2011 [4] Oliver Sigaud et alMarkov Decision Process in Artificial Intelligence[M], 2010   增强学习三----- MDP的动态规划解法   上一篇我们已经说到了增强学习的目的就是求解马尔可夫决策过程(MDP)的最优策略使其在任意初始状态下都能获得最大的Vπ值。(本文不考虑非马尔可夫环境和不完全可观测马尔可夫决策过程(POMDP)中的增强学习)。   那么如何求解最优策略呢基本的解法有三种   动态规划法(dynamic programming methods)   蒙特卡罗方法(Monte Carlo methods)   时间差分法(temporal difference)。   动态规划法是其中最基本的算法也是理解后续算法的基础因此本文先介绍动态规划法求解MDP。本文假设拥有MDP模型M(S, A, Psa, R)的完整知识。 1. 贝尔曼方程Bellman Equation   上一篇我们得到了Vπ和Qπ的表达式并且写成了如下的形式   在动态规划中上面两个式子称为贝尔曼方程它表明了当前状态的值函数与下个状态的值函数的关系。   优化目标π*可以表示为   分别记最优策略π*对应的状态值函数和行为值函数为V*(s)和Q*(s, a)由它们的定义容易知道V*(s)和Q*(s, a)存在如下关系:   状态值函数和行为值函数分别满足如下贝尔曼最优性方程(Bellman optimality equation)   有了贝尔曼方程和贝尔曼最优性方程后我们就可以用动态规划来求解MDP了。 2. 策略估计(Policy Evaluation)   首先对于任意的策略π我们如何计算其状态值函数Vπ(s)这个问题被称作策略估计   前面讲到对于确定性策略值函数   现在扩展到更一般的情况如果在某策略π下π(s)对应的动作a有多种可能每种可能记为π(a|s)则状态值函数定义如下   一般采用迭代的方法更新状态值函数首先将所有Vπ(s)的初值赋为0其他状态也可以赋为任意值不过吸收态必须赋0值然后采用如下式子更新所有状态s的值函数第k1次迭代   对于Vπ(s)有两种更新方法   第一种将第k次迭代的各状态值函数[Vk(s1),Vk(s2),Vk(s3)..]保存在一个数组中第k1次的Vπ(s)采用第k次的Vπ(s)来计算并将结果保存在第二个数组中。   第二种即仅用一个数组保存各状态值函数每当得到一个新值就将旧的值覆盖,形如[Vk1(s1),Vk1(s2),Vk(s3)..]第k1次迭代的Vπ(s)可能用到第k1次迭代得到的Vπ(s)。   通常情况下我们采用第二种方法更新数据因为它及时利用了新值能更快的收敛。整个策略估计算法如下图所示 3. 策略改进(Policy Improvement)   上一节中进行策略估计的目的是为了寻找更好的策略这个过程叫做策略改进(Policy Improvement)。   假设我们有一个策略π并且确定了它的所有状态的值函数Vπ(s)。对于某状态s有动作a0π(s)。 那么如果我们在状态s下不采用动作a0而采用其他动作a≠π(s)是否会更好呢要判断好坏就需要我们计算行为值函数Qπ(s,a)公式我们前面已经说过   评判标准是Qπ(s,a)是否大于Vπ(s)。如果Qπ(s,a) Vπ(s)那么至少说明新策略【仅在状态s下采用动作a其他状态下遵循策略π】比旧策略【所有状态下都遵循策略π】整体上要更好。   策略改进定理(policy improvement theorem)π和π是两个确定的策略如果对所有状态s∈S有Qπ(s,π(s))≥Vπ(s)那么策略π必然比策略π更好或者至少一样好。其中的不等式等价于Vπ(s)≥Vπ(s)。   有了在某状态s上改进策略的方法和策略改进定理我们可以遍历所有状态和所有可能的动作a并采用贪心策略来获得新策略π。即对所有的s∈S, 采用下式更新策略   这种采用关于值函数的贪心策略获得新策略改进旧策略的过程称为策略改进(Policy Improvement)      最后大家可能会疑惑贪心策略能否收敛到最优策略这里我们假设策略改进过程已经收敛即对所有的sVπ(s)等于Vπ(s)。那么根据上面的策略更新的式子可以知道对于所有的s∈S下式成立   可是这个式子正好就是我们在1中所说的Bellman optimality equation所以π和π都必然是最优策略神奇吧 4. 策略迭代(Policy Iteration)   策略迭代算法就是上面两节内容的组合。假设我们有一个策略π那么我们可以用policy evaluation获得它的值函数Vπ(s)然后根据policy improvement得到更好的策略π接着再计算Vπ(s),再获得更好的策略π整个过程顺序进行如下图所示 完整的算法如下图所示   5. 值迭代(Value Iteration)即Q学习Q learning   从上面我们可以看到策略迭代算法包含了一个策略估计的过程而策略估计则需要扫描(sweep)所有的状态若干次其中巨大的计算量直接影响了策略迭代算法的效率。我们必须要获得精确的Vπ值吗事实上不必有几种方法可以在保证算法收敛的情况下缩短策略估计的过程。   值迭代Value Iteration就是其中非常重要的一种。它的每次迭代只扫描(sweep)了每个状态一次。值迭代的每次迭代对所有的s∈S按照下列公式更新   即在值迭代的第k1次迭代时直接将能获得的最大的Vπ(s)值赋给Vk1。值迭代算法直接用可能转到的下一步s的V(s)来更新当前的V(s)算法甚至都不需要存储策略π。而实际上这种更新方式同时却改变了策略πk和V(s)的估值Vk(s)。 直到算法结束后我们再通过V值来获得最优的π。 此外值迭代还可以理解成是采用迭代的方式逼近1中所示的贝尔曼最优方程。 值迭代完整的算法如图所示   由上面的算法可知值迭代的最后一步我们才根据V*(s)获得最优策略π*。   一般来说值迭代和策略迭代都需要经过无数轮迭代才能精确的收敛到V*和π* 而实践中我们往往设定一个阈值来作为中止条件即当Vπ(s)值改变很小时我们就近似的认为获得了最优策略。在折扣回报的有限MDP(discounted finite MDPs)中进过有限次迭代两种算法都能收敛到最优策略π*。   至此我们了解了马尔可夫决策过程的动态规划解法动态规划的优点在于它有很好的数学上的解释但是动态要求一个完全已知的环境模型这在现实中是很难做到的。另外当状态数量较大的时候动态规划法的效率也将是一个问题。下一篇介绍蒙特卡罗方法它的优点在于不需要完整的环境模型。 参考资料 [1] R.Sutton et al. Reinforcement learning: An introduction , 1998 [2] 徐昕增强学习及其在移动机器人导航与控制中的应用研究[D],2002   增强学习四 ----- 蒙特卡罗方法(Monte Carlo Methods) 1. 蒙特卡罗方法的基本思想   蒙特卡罗方法又叫统计模拟方法它使用随机数或伪随机数来解决计算的问题是一类重要的数值计算方法。该方法的名字来源于世界著名的赌城蒙特卡罗而蒙特卡罗方法正是以概率为基础的方法。   一个简单的例子可以解释蒙特卡罗方法假设我们需要计算一个不规则图形的面积那么图形的不规则程度和分析性计算比如积分的复杂程度是成正比的。而采用蒙特卡罗方法是怎么计算的呢首先你把图形放到一个已知面积的方框内然后假想你有一些豆子把豆子均匀地朝这个方框内撒散好后数这个图形之中有多少颗豆子再根据图形内外豆子的比例来计算面积。当你的豆子越小撒的越多的时候结果就越精确。 2. 增强学习中的蒙特卡罗方法   MC是属于sampling-based policy optimization的一种。   现在我们开始讲解增强学习中的蒙特卡罗方法与上篇的DP不同的是这里不需要对环境的完整知识。蒙特卡罗方法仅仅需要经验就可以求解最优策略这些经验可以在线获得或者根据某种模拟机制获得。   要注意的是我们仅将蒙特卡罗方法定义在episode task上所谓的episode task就是指不管采取哪种策略π都会在有限时间内到达终止状态并获得回报的任务。比如玩棋类游戏在有限步数以后总能达到输赢或者平局的结果并获得相应回报。 那么什么是经验呢经验其实就是训练样本。比如在初始状态s遵循策略π最终获得了总回报R这就是一个样本。如果我们有许多这样的样本就可以估计在状态s下遵循策略π的期望回报也就是状态值函数Vπ(s)了。蒙特卡罗方法就是依靠样本的平均回报来解决增强学习问题的。   尽管蒙特卡罗方法和动态规划方法存在诸多不同但是蒙特卡罗方法借鉴了很多动态规划中的思想。在动态规划中我们首先进行策略估计计算特定策略π对应的Vπ和Qπ然后进行策略改进最终形成策略迭代。这些想法同样在蒙特卡罗方法中应用。 3. 蒙特卡罗策略估计(Monte Carlo Policy evalution)   首先考虑用蒙特卡罗方法来学习状态值函数Vπ(s)。如上所述估计Vπ(s)的一个明显的方法是对于所有到达过该状态的回报取平均值。这里又分为first-visit MC methods和every-visit MC methods。这里我们只考虑first MC methods即在一个episode内我们只记录s的第一次访问并对它取平均回报。 现在我们假设有如下一些样本取折扣因子γ1即直接计算累积回报则有 根据first MC methods对出现过状态s的episode的累积回报取均值有Vπ(s)≈ (2 1 – 5 4)/4 0.5     容易知道当我们经过无穷多的episode后Vπ(s)的估计值将收敛于其真实值。 4. 动作值函数的MC估计(Mote Carlo Estimation of Action Values)   在状态转移概率p(s|a,s)已知的情况下策略估计后有了新的值函数我们就可以进行策略改进了只需要看哪个动作能获得最大的期望累积回报就可以。然而在没有准确的状态转移概率的情况下这是不可行的。为此我们需要估计动作值函数Qπ(s,a)。Qπ(s,a)的估计方法前面类似即在状态s下采用动作a后续遵循策略π获得的期望累积回报即为Qπ(s,a)依然用平均回报来估计它。有了Q值就可以进行策略改进了 5. 持续探索(Maintaining Exploration)   下面我们来探讨一下Maintaining Exploration的问题。前面我们讲到我们通过一些样本来估计Q和V并且在未来执行估值最大的动作。这里就存在一个问题假设在某个确定状态s0下能执行a0, a1, a2这三个动作如果智能体已经估计了两个Q函数值如Q(s0,a0), Q(s0,a1)且Q(s0,a0)Q(s0,a1)那么它在未来将只会执行一个确定的动作a0。这样我们就无法更新Q(s0,a1)的估值和获得Q(s0,a2)的估值了。这样的后果是我们无法保证Q(s0,a0)就是s0下最大的Q函数。 Maintaining Exploration的思想很简单就是用soft policies来替换确定性策略使所有的动作都有可能被执行。比如其中的一种方法是ε-greedy policy即在所有的状态下用1-ε的概率来执行当前的最优动作a0ε的概率来执行其他动作a1, a2。这样我们就可以获得所有动作的估计值然后通过慢慢减少ε值最终使算法收敛并得到最优策略。简单起见在下面MC控制中我们使用exploring start即仅在第一步令所有的a都有一个非零的概率被选中。 6. 蒙特卡罗控制(Mote Carlo Control)   我们看下MC版本的策略迭代过程   根据前面的说法值函数Qπ(s,a)的估计值需要在无穷多episode后才能收敛到其真实值。这样的话策略迭代必然是低效的。在上一篇DP中我们了值迭代算法即每次都不用完整的策略估计而仅仅使用值函数的近似值进行迭代这里也用到了类似的思想。每次策略的近似值然后用这个近似值来更新得到一个近似的策略并最终收敛到最优策略。这个思想称为广义策略迭代。   具体到MC control就是在每个episode后都重新估计下动作值函数尽管不是真实值然后根据近似的动作值函数进行策略更新。这是一个episode by episode的过程。   一个采用exploring starts的Monte Carlo control算法如下图所示称为Monte Carlo ES。而对于所有状态都采用soft policy的版本这里不再讨论。 7. 小结   Monte Carlo方法的一个显而易见的好处就是我们不需要环境模型了可以从经验中直接学到策略。它的另一个好处是它对所有状态s的估计都是独立的而不依赖与其他状态的值函数。在很多时候我们不需要对所有状态值进行估计这种情况下蒙特卡罗方法就十分适用。 不过现在增强学习中直接使用MC方法的情况比较少而较多的采用TD算法族。但是如同DP一样MC方法也是增强学习的基础之一因此依然有学习的必要。   参考资料 [1] R.Sutton et al. Reinforcement learning: An introduction, 1998 [2] Wikipedia蒙特卡罗方法 转载于:https://www.cnblogs.com/mo-wang/p/4910855.html
http://www.pierceye.com/news/573568/

相关文章:

  • 云虚拟主机怎么做2个网站装饰工程施工
  • 网站备案查询流程wordpress手机页面没有注册
  • 辽宁城乡建设集团官方网站精品课程网站建设
  • 威海 网站建设个人做网站可以盈利么
  • 机关网站源码网站建设 备案什么意思
  • 做理财的网站有哪些怎么弄数据库备份做网站
  • 网站不接入备案易企互联网站建设
  • 那种网站打不开北京网站建设找华网天下
  • 网站建设seo优化浙江网站名称怎么收录
  • 天津网站制作工具想自己做网站 有免费的吗
  • 宝塔织梦网站建设求网站备案照片
  • 聊城住房和城乡建设厅网站研发项目管理软件
  • 国投集团网站开发杭州网站界面设计
  • 做关于什么的网站莆田网站建设解决方案
  • 湖南长沙做网站那些网站可以做反链
  • 成都金牛网站建设公司高端网站配色
  • 做喜报的网站设计师的工作内容
  • 济南网站建设工作wordpress 资讯
  • 网站调用数据库平台公司名单
  • 移动网站怎么做成都设计公司名字
  • 杭州最好的网站设计公司服务器域名解析
  • 做试用网站的原理塘沽网吧开门了吗
  • 网站域名的作用古典网站源码
  • 做直播网站软件有哪些软件涿州网站建设有限公司
  • 易托管建站工具wordpress多个single
  • 建一个电影网站多大 数据库半厘米wordpress
  • 住房和建设厅网站首页网站源码怎么写
  • 宁波新亚建设公司网站简单网站建设
  • 做网站没赚到钱网站后台地址忘记了
  • 备案网站公共查询安阳县