相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息增益(information gain)。
KL散度是两个概率分布P和Q差别的非对称性的度量。

      KL散度是用来度量使用基于Q的编码来编码来自P的样本平均所需的额外的比特个数。 典型情况下,P表示数据的真实分布,Q表示数据的理论分布,模型分布,或P的近似分布。

 

http://zh.wikipedia.org/zh-tw/%E7%9B%B8%E5%AF%B9%E7%86%B5

http://baike.baidu.com/view/951299.htm

相关文章:

  • 2021-09-27
  • 2021-06-13
  • 2021-07-13
  • 2021-12-31
  • 2021-04-23
  • 2021-11-02
猜你喜欢
  • 2022-01-20
  • 2021-11-14
  • 2021-05-26
  • 2022-12-23
  • 2021-12-18
  • 2021-08-28
  • 2021-11-27
相关资源
相似解决方案