EM算法


机器学习第十四课part2(EM,EM算法用于GMM)机器学习第十四课part2(EM,EM算法用于GMM)机器学习第十四课part2(EM,EM算法用于GMM)机器学习第十四课part2(EM,EM算法用于GMM)机器学习第十四课part2(EM,EM算法用于GMM)机器学习第十四课part2(EM,EM算法用于GMM)                 机器学习第十四课part2(EM,EM算法用于GMM)这里等于1是因为在Jensen不等式中系数加和为1机器学习第十四课part2(EM,EM算法用于GMM)机器学习第十四课part2(EM,EM算法用于GMM)机器学习第十四课part2(EM,EM算法用于GMM)机器学习第十四课part2(EM,EM算法用于GMM)

EM的算法流程:

初始化分布参数θ

重复以下步骤直到收敛

        E步骤:根据参数初始值或上一次迭代的模型参数来计算出隐性变量的后验概率,其实就是隐性变量的期望。作为隐藏变量的现估计值:

                                     机器学习第十四课part2(EM,EM算法用于GMM)

        M步骤:将利用Jensen不等式得到下界,然后似然函数最大化以获得新的参数值:

                机器学习第十四课part2(EM,EM算法用于GMM)

这个不断的迭代,就可以得到使似然函数L(θ)最大化的参数θ了。

      机器学习第十四课part2(EM,EM算法用于GMM)


EM收敛一种是不再变化,另一种是开始递减.


EM算法用于GMM


机器学习第十四课part2(EM,EM算法用于GMM)

机器学习第十四课part2(EM,EM算法用于GMM)

机器学习第十四课part2(EM,EM算法用于GMM)机器学习第十四课part2(EM,EM算法用于GMM)

机器学习第十四课part2(EM,EM算法用于GMM)机器学习第十四课part2(EM,EM算法用于GMM)机器学习第十四课part2(EM,EM算法用于GMM)机器学习第十四课part2(EM,EM算法用于GMM)

机器学习第十四课part2(EM,EM算法用于GMM)

机器学习第十四课part2(EM,EM算法用于GMM)

机器学习第十四课part2(EM,EM算法用于GMM)

另一个讲的很好的帖子

http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html


相关文章:

  • 2022-12-23
  • 2022-12-23
  • 2022-02-06
  • 2021-09-08
  • 2021-05-06
  • 2021-05-18
  • 2021-11-01
猜你喜欢
  • 2022-12-23
  • 2020-01-04
  • 2022-12-23
  • 2021-09-16
  • 2022-01-23
  • 2021-12-03
  • 2021-05-23
相关资源
相似解决方案