MAXIMUM A POSTERIORI POLICY OPTIMISATION (MPO)
发表时间:2018(ICLR 2018)
文章要点:从variational inference的角度引入了一种新的RL范式:最大化后验策略优化(MAXIMUM A POSTERIORI POLICY OPTIMISATION,MPO)。主要式子如上图,目标是使得获得最大reward的事件出现的概率最大,然后引入了一个新的策略q,放缩成了右边的目标函数J(evidence lower bound (ELBO))。有点贝叶斯方法的感觉,然后用EM的方式更新,E-step更新q来提升J,M-step更新π来提升J。这个范式把最大熵策略(引入KL constraint)和信頼域方法(可以看做parametric E-step)也囊括了进来,算是policy optimization方法和off-policy方法的混合。在连续控制上效果较好,Atari这样的离散问题上效果比SOTA差些。
总结:从inference的角度看RL方法,挺有意思的。后面好多MCTS的文章也被拿来从MPO的角度来解释和进一步改进,挺重要的思路。
疑问:证明没明白,还需要看看yidaxu的课再回过头来看一遍paper。

相关文章:

  • 2021-11-04
  • 2021-07-20
  • 2021-05-16
  • 2021-12-26
  • 2021-06-04
  • 2021-04-24
  • 2021-11-09
  • 2021-09-08
猜你喜欢
  • 2021-06-28
  • 2021-09-01
  • 2021-09-17
  • 2022-12-23
  • 2021-06-08
  • 2021-08-09
相关资源
相似解决方案