上篇文章介绍了强化学习的八个基本要素,利用这些要素,我们就可以将一个完整的强化学习过程描述出来。

强化学习基本过程与目标

大家在看其他的参考书时,在这部分其实都是把强化学习的过程描述为一个“马尔科夫决策过程”。我们首先可以回忆一下上一节中那个图,首先就是将强化学习过程离散化,分成一步一步的过程。那么这其中最重要的马尔科夫特性,其实讲的就是每一步之间的关系。简单来说,就是系统这一步的状态,只与系统前一步状态相关,而与历史状态无关。用公式表示就是:
P[st+1s1,,st]=P[st+1st]P\left[s_{t+1}\left|s_1,\cdots,s_t\right.\right]=P\left[s_{t+1}\left|s_t\right.\right]
这种简化从某种程度上来说是合理的,其实蕴含的意思就是说这一步状态sts_t已经蕴含了历史信息。那么大家可以想想,这对sts_t的要求其实挺高的,在决策中需要使用真正将能够表征蕴含历史信息的状态,而不能产生遗漏,否则就会产生问题。

那么,对于一次完整的强化学习过程,我们可以用如下参数来表示。首先,每一步环境的状态sts_t可以构成一个集合,称为状态集合,用SS表示;相应的,每一步Agent的动作ata_t也可以构成一个集合,称为动作集合,用AA表示;同时,每一步产生的奖励rtr_t可以构成一个集合,用RR表示。因此,强化学习的目标,简单来说就是找到最优的策略π\pi^\ast,使得RR最大

要想求得RR的最大,简单来说,就必须要在每个状态或者动作时,产生的价值都是最大,这样最终加在一起的价值才能最大。关于状态或者动作的价值评估,我们就需要使用到前面定义的概念状态价值函数vπ(s)v_{\mathrm\pi}\left(s\right)和状态-行为值函数qπ(s,a)q_{\mathrm\pi}\left(s,a\right)
根据前面的定义,概念状态价值函数vπ(s)v_{\mathrm\pi}\left(s\right)可表示为:
vπ(s)=Eπ[rt+1+γrt+2+γ2rt+3st=s]                  =Eπ[rt+1+γ(rt+2+γrt+3)st=s]                  =Eπ[rt+1+γvπ(st+1)st=s]v_{\mathrm\pi}\left(s\right)=E_{\mathrm\pi}\left[r_{t+1}+\gamma\cdot r_{t+2}+\gamma^2\cdot r_{t+3}\left|s_t=s\right.\right]\\\;\;\;\;\;\;\;\;\;=E_{\mathrm\pi}\left[r_{t+1}+\gamma\cdot\left(r_{t+2}+\gamma\cdot r_{t+3}\right)\left|s_t=s\right.\right]\\\;\;\;\;\;\;\;\;\;=E_{\mathrm\pi}\left[r_{t+1}+\gamma\cdot v_{\mathrm\pi}\left(s_{t+1}\right)\left|s_t=s\right.\right]
上面得到的vπ(s)v_{\mathrm\pi}\left(s\right)vπ(st+1)v_{\mathrm\pi}\left(s_{t+1}\right)之间的这种关系,就称为贝尔曼方程。

同理,也可求出状态-行为值函数的贝尔曼方程为:
qπ(s,a)=Eπ[rt+1+γqπ(st+1,at+1)st=s,at=a]q_{\mathrm\pi}\left(s,a\right)=E_{\mathrm\pi}\left[r_{t+1}+\gamma\cdot q_{\mathrm\pi}\left(s_{t+1},a_{t+1}\right)\left|s_t=s,a_t=a\right.\right]
上述两个贝尔曼方程,在强化学习的过程中起到了核心作用,是后续算法的基本思路,即“通过贝尔曼方程的多伦迭代,使vπ(s)v_{\mathrm\pi}\left(s\right)qπ(s,a)q_{\mathrm\pi}\left(s,a\right)最终收敛”。

状态价值函数与状态-行为值函数关系

可能童鞋们也发现了,vπ(s)v_{\mathrm\pi}\left(s\right)qπ(s,a)q_{\mathrm\pi}\left(s,a\right)两个式子看起来很像,那么从定义角度出发,这两者之间是什么关系呢?大家可以看看下图:
基本概念篇(二),强化学习过程
纯手工绘图,丑,大家见笑了。
由上图可以看出,状态价值函数是由状态-行为值函数组成的,用公式表示如下:
vπ(s)=aAπ(as)qπ(s,a)v_{\mathrm\pi}\left(s\right)=\sum_{a\in A}\mathrm\pi\left(\mathrm a\left|\mathrm s\right.\right){\mathrm q}_{\mathrm\pi}\left(\mathrm s,\mathrm a\right) (1)
同理,状态-行为值函数也可以由状态价值函数表示如下:
qπ(s,a)=rsa+γsSPssavπ(s){\mathrm q}_{\mathrm\pi}\left(\mathrm s,\mathrm a\right)=r_s^a+\gamma\sum_{s'\in S}P_{ss'}^av_{\mathrm\pi}\left(s'\right) (2)
将(2)代入(1)可得:
vπ(s)=aAπ(as)[rsa+γsSPssavπ(s)]v_{\mathrm\pi}\left(s\right)=\sum_{a\in A}\mathrm\pi\left(\mathrm a\left|\mathrm s\right.\right)\left[\mathrm r_{\mathrm s}^{\mathrm a}+\mathrm\gamma\sum_{\mathrm s'\in\mathrm S}\mathrm P_{\mathrm{ss}'}^{\mathrm a}{\mathrm v}_{\mathrm\pi}\left(\mathrm s'\right)\right] (3)
将(1)代入(2)可得:
qπ(s,a)=rsa+γsSPssaaAπ(as)qπ(s,a){\mathrm q}_{\mathrm\pi}\left(\mathrm s,\mathrm a\right)=r_s^a+\gamma\sum_{s'\in S}P_{ss'}^a\sum_{\mathrm a'\in\mathrm A}\mathrm\pi\left(\mathrm a'\left|\mathrm s'\right.\right){\mathrm q}_{\mathrm\pi}\left(\mathrm s',\mathrm a'\right) (4)

最优策略求解

我们知道了vπ(s)v_{\mathrm\pi}\left(s\right)qπ(s,a)q_{\mathrm\pi}\left(s,a\right)两个式子的关系,下面我们来看看如何通过这两个式子找到最优的策略π\pi^\ast
我们可以定义最优的状态价值函数是所有策略产生的状态价值函数的最大者,用公式表示为:
v(s)=maxπvπ(s){\mathrm v}_\ast\left(\mathrm s\right)=\max_{\mathrm\pi}{\mathrm v}_{\mathrm\pi}\left(\mathrm s\right)
同样可以定义最优的状态-行为值函数:
q(s,a)=maxπqπ(s,a)q_\ast\left(\mathrm s,\mathrm a\right)=\max_{\mathrm\pi}{\mathrm q}_{\mathrm\pi}\left(\mathrm s,\mathrm a\right)
则根据最优状态-行为值函数,可以定义最优策略为:
π(as)={1  if  a=argmaxaAq(s,a)0  else{\mathrm\pi}_\ast\left(\mathrm a\left|\mathrm s\right.\right)=\left\{\begin{array}{l}1\;\mathrm{if}\;\mathrm a=\arg\max_{\mathrm a\in\mathrm A}{\mathrm q}_\ast\left(\mathrm s,\mathrm a\right)\\0\;\mathrm{else}\end{array}\right. (5)
根据(1)和(5)可以得到下面的式子:
v(s)=maxaAq(s,a){\mathrm v}_\ast\left(\mathrm s\right)=\max_{\mathrm a\in\mathrm A}{\mathrm q}_\ast\left(\mathrm s,\mathrm a\right) (6)
再根据(2)和(6)可以得到下面的式子:
q(s,a)=rsa+γsSPssav(s){\mathrm q}_\ast\left(\mathrm s,\mathrm a\right)=\mathrm r_{\mathrm s}^{\mathrm a}+\mathrm\gamma\sum_{\mathrm s'\in\mathrm S}\mathrm P_{\mathrm{ss}'}^{\mathrm a}{\mathrm v}_\ast\left(\mathrm s'\right) (7)
那么,和前面的(3)和(4)类似,最终我们可以得到下面两个式子:
v(s)=maxaA(rsa+γsSPssav(s)){\mathrm v}_\ast\left(s\right)=\max_{a\in A}\left(\mathrm r_{\mathrm s}^{\mathrm a}+\mathrm\gamma\sum_{\mathrm s'\in\mathrm S}\mathrm P_{\mathrm{ss}'}^{\mathrm a}{\mathrm v}_\ast\left(\mathrm s'\right)\right) (8)
q(s,a)=rsa+γsSPssamaxaq(s,a){\mathrm q}_\ast\left(\mathrm s,\mathrm a\right)=\mathrm r_{\mathrm s}^{\mathrm a}+\mathrm\gamma\sum_{\mathrm s'\in\mathrm S}\mathrm P_{\mathrm{ss}'}^{\mathrm a}\max_{\mathrm a'}{\mathrm q}_\ast\left(\mathrm s',\mathrm a'\right) (9)
上面的式子,是我们理解后续相关算法的基础,虽然看着有点多,但其实是由相关定义推导出来的,建议大家在这里多花点时间去理解。

举个小栗子

讲了这么多公式,下面我们给大家讲一个实际的例子,首先看下图:
基本概念篇(二),强化学习过程
上图是一个典型的MDP的例子,由图上我们可以看出,每个状态下可选择的行动都是两个,那么我们这里假设π(as)=0.5\mathrm\pi\left(\mathrm a\left|\mathrm s\right.\right)=0.5,且γ=1\gamma=1
那么,根据我们前面的公式:vπ(s)=aAπ(as)[rsa+γsSPssavπ(s)]v_{\mathrm\pi}\left(s\right)=\sum_{a\in A}\mathrm\pi\left(\mathrm a\left|\mathrm s\right.\right)\left[\mathrm r_{\mathrm s}^{\mathrm a}+\mathrm\gamma\sum_{\mathrm s'\in\mathrm S}\mathrm P_{\mathrm{ss}'}^{\mathrm a}{\mathrm v}_{\mathrm\pi}\left(\mathrm s'\right)\right] (3)可以列出如下方程组:

{v1=0.5(1+v1)+0.5(0+v2)v2=0.5(1+v1)+0.5(2+v3)v3=0.5(0+0)+0.5(2+v4)v4=0.5(10+0)+0.5(1+0.2v2+0.4v3+0.4v4)\left\{\begin{array}{l}v_1=0.5\left(-1+v_1\right)+0.5\left(0+v_2\right)\\v_2=0.5\left(-1+v_1\right)+0.5\left(-2+v_3\right)\\v_3=0.5\left(0+0\right)+0.5\left(-2+v_4\right)\\v_4=0.5\left(10+0\right)+0.5\left(1+0.2\ast v_2+0.4\ast v_3+0.4\ast v_4\right)\end{array}\right.

直接解上面的方程,可以得到如下结果:

{v1=2.3v2=1.3v3=2.7v4=7.4\left\{\begin{array}{l}v_1=-2.3\\v_2=-1.3\\v_3=2.7\\v_4=7.4\end{array}\right.

那么,根据公式:qπ(s,a)=rsa+γsSPssavπ(s){\mathrm q}_{\mathrm\pi}\left(\mathrm s,\mathrm a\right)=r_s^a+\gamma\sum_{s'\in S}P_{ss'}^av_{\mathrm\pi}\left(s'\right) (2)和上面求出的各状态价值,可以得到:

{q(s1,Facebook)=1+v1=3.3q(s1,Quit)=0+v2=2.3    q(s2,Facebook)=1+v1=3.3q(s2,Study)=2+v3=0.7    q(s3,Study)=2+v4=5.4    q(s3,Sleep)=0+0=0q(s4,Study)=10+0=10    q(s4,Pub)=1+0.2v2+0.4v3+0.4v4=4.78\left\{\begin{array}{l}q\left(s_1,Facebook\right)=-1+v_1=-3.3\\q\left(s_1,Quit\right)=0+v_2=-2.3\;\;\ast\\q\left(s_2,Facebook\right)=-1+v_1=-3.3\\q\left(s_2,Study\right)=-2+v_3=0.7\;\;\ast\\q\left(s_3,Study\right)=-2+v_4=5.4\;\;\ast\\q\left(s_3,Sleep\right)=0+0=0\\q\left(s_4,Study\right)=10+0=10\;\;\ast\\q\left(s_4,Pub\right)=1+0.2v_2+0.4v_3+0.4v_4=4.78\end{array}\right.

由公式(5)可以得到本题的最优策略为:
{Quit, Study, Study, Study}
其实大家可以发现,根据前面的公式,最优策略的计算方法很多,有兴趣的童鞋可以使用其他公式来进行计算。

相关文章:

  • 2021-04-01
  • 2022-01-12
  • 2021-06-18
  • 2021-10-09
  • 2021-12-21
  • 2022-12-23
  • 2022-12-23
  • 2021-06-01
猜你喜欢
  • 2021-12-02
  • 2021-12-02
  • 2021-07-14
  • 2021-06-16
  • 2021-12-13
  • 2021-04-09
相关资源
相似解决方案