在进行参数估计的时候, 常用到最大似然估计,其形式很简单,对于含有N个样本的训练数据集DN,假设样本独立同分布,分布参数为贝叶斯学习,则似然概率定义如下:

    
贝叶斯学习

简单说就是参数为贝叶斯学习时训练集出现的概率,然后我们根据不同的分布形式求导,得到参数贝叶斯学习的最有值使得似然概率最大。

贝叶斯学习过程不同之处在于,一开始并不试图去求解一个最优的参数值,而是假设参数贝叶斯学习本身符合某个分布,即先验概率p(贝叶斯学习)(例如高斯分布,只要知道均值和方差就能确定下来),利用训练数据集所得到的信息就可以得到参数贝叶斯学习的条件概率分布p(贝叶斯学习)(条件概率的用途后面揭晓)。

    由贝叶斯公式,我们可以得到:

贝叶斯学习

    再根据前面的独立性假设:

贝叶斯学习

将公式(2)带入公式(1)中,得到:

    
贝叶斯学习

再次使用贝叶斯公式,我们发现:

    
贝叶斯学习

所以:

    
贝叶斯学习

这里有必要指出的是贝叶斯学习与参数贝叶斯学习是独立的,可以这样理解,对于一个已知的分布形式,我们假设了贝叶斯学习的分布类型:贝叶斯学习,积分过程中去掉了参数,所以它本身是与贝叶斯学习独立的,则公式(4)可以简化成:

        
贝叶斯学习

整个推导过程并没有涉及到参数贝叶斯学习的具体分布形式,可见公式(5)对于各种分布函数是普遍适用的,该公式体现的是参数的条件概率密度的迭代更新过程,显然,更新的起始点:贝叶斯学习,没有任何数据的时候,我们所有的就是先验概率。

最后提一下为什么要求解参数的条件概率密度,在分类问题中,给定属于某一类的训练数据集贝叶斯学习,对于某一个输入模式,我们要确定类条件概率密度,也就是p(x|DN)

由贝叶斯公式

    
贝叶斯学习

前面提过,贝叶斯学习贝叶斯学习相互独立,则贝叶斯学习,所以

    
贝叶斯学习

相关文章:

  • 2021-12-01
  • 2021-10-11
  • 2021-08-12
  • 2021-05-23
  • 2021-12-30
  • 2021-12-12
  • 2022-12-23
猜你喜欢
  • 2021-07-14
  • 2021-12-31
  • 2021-12-01
  • 2022-01-08
  • 2021-11-07
  • 2022-12-23
  • 2021-04-27
相关资源
相似解决方案