1. 先验概率和后验概率
    先验概率: 根据以往经验和分析得到的概率。
    后验概率:后验概率是基于新的信息,修正原来的先验概率后所获得的更接近实际情况的概率估计。
    实际上先验概率就是在没有任何结果出来的情况下估计的概率,而后验概率则是在有一定依据后的重新估计,直观意义上后验概率就是条件概率。

  2. 贝叶斯公式
    P(BiA)=P(Bi)P(ABi)j=1nP(ABj)P(Bj)P(B_i|A)=\frac{P(B_i)P(A|B_i)}{\sum\limits_{j=1}^{n}P(A|B_j)P(B_j)}
    试验E的样本空间为S,A为E的事件,B1,B2,,BnB_1,B_2,\cdots,B_n为S的一个划分,且P(A)>0P(A)>0,P(Bi)>0(i=1,2,,n)P(B_i)>0(i=1,2,\cdots,n)

  3. 贝叶斯决策论
    基于概率框架下的决策实施理论。
    给定N个类别,令λij\lambda_{ij}表示将第j类样本误分为第i类所产生的损失。则基于后验概率将样本x分到第i类的条件风险为:R(cix)=i=1NλijP(cjx)R(c_i|x)=\sum\limits_{i=1}^{N}\lambda_{ij}P(c_j|x)
    贝叶斯判定准则:最小化总体条件风险
    贝叶斯最优分类器:h()(x)=arg mincyR(cx)h^{(*)}(x)=\argmin \limits_{c\in y}R(c|x),
    y=c1,c2,,cNy=c_1,c_2,\cdots,c_N
    贝叶斯风险:总体风险,1R1-R反映了学习性能的理论上限

  4. 生成式模型
    由于P(cjx)P(c_j|x)难以直接获得,有两种基本策略:判别式模型(如决策树、神经网络、SVM)和生成式模型。
    生成式模型:先对联合概率分布P(x,c)P(x,c)建模,再由此获得P(cx)=P(x,c)P(x)=P(xc)P(c)P(x)P(c|x)=\frac{P(x,c)}{P(x)}=\frac{P(x|c)P(c)}{P(x)}
    P(x)P(x)为证据因子,与类别无关。
    P(c)P(c)为先验概率,可通过样本中各类别样本出现的频率进行估计
    P(xc)P(x|c)为样本相对于类标记的类条件概率,也称似然,它的估计为主要困难。

  5. 极大似然估计
    先假设某种概率分布形式,再基于训练样例对参数进行估计。
    假定P(xc)P(x|c)具有某种概率分布形式,且被参数θc\theta_c唯一确定,那么任务就是利用训练集D来估计参数θc\theta_c。记P(xc)=P(xθc)P(x|c)=P(x|\theta_c)
    DcD_c为D中第c类的样本组成的集合,假设这些样本独立同分布,则参数θc\theta_c关于数据集DcD_c的似然为:P(Dcθc)=xDcP(xθc)P(D_c|\theta_c)=\prod\limits_{x\in D_c}P(x|\theta_c)
    采用对数似然,化连乘为求和:
    LL(θc)=logP(Dcθc)=xDclogP(xθc)LL(\theta_c)=\log P(D_c|\theta_c)=\sum\limits_{x\in D_c}\log P(x|\theta_c)
    那么θc\theta_c的极大似然估计为θ^c=arg maxθcLL(θc)\hat\theta_c=\argmax\limits_{\theta_c}LL(\theta_c)

  6. 朴素贝叶斯分类器
    #. 对上面的似然估计而言,所有属性上的联合概率估计难以从有限训练样本估计获得,朴素贝叶斯分类器假设所有属性相互独立,从而:P(xc)=i=1dP(xic)P(x|c)=\prod\limits_{i=1}^{d}P(x_i|c),
    P(cx)=P(x,c)P(x)=P(xc)P(c)P(x)P(c|x)=\frac{P(x,c)}{P(x)}=\frac{P(x|c)P(c)}{P(x)}P(x)P(x)对所有类别相同,于是:hnb(x)=arg maxcyP(c)i=1dP(xic)h_{nb}(x)=\argmax_{c\in y}P(c)\prod\limits_{i=1}^{d}P(x_i|c).
    估计P(c)P(c)P(c)=DcDP(c)=\frac{|D_c|}{|D|};
    估计P(xc)P(x|c)P(xic)=Dc,xiDcP(x_i|c)=\frac{|D_{c,x_i}|}{|D_c|}(离散属性)
    Dc,xiD_{c,x_i}表示DcD_c在第i个属性上取值为xix_i的样本集合;
    #.拉普拉斯修正
    为了避免其他属性携带的信息被训练集中未出现的属性值"抹去’,在估计概率值时通常要进行"平滑" (smoothing) ,常用"拉普拉斯修正"。
    令N表示训练集D中可能的类别数,NiN_i表示第i个属性可能的类别数。
    P(c)^=Dc+1D+N\hat{P(c)}=\frac{|D_c|+1}{|D|+N};
    P(xic)=Dc,xi+1Dc+NiP(x_i|c)=\frac{|D_{c,x_i}|+1}{|D_c|+N_i}
    这是假设属性值与类别均匀分布。

  7. 半朴素贝叶斯分类器
    #.属性条件独立性假设往往很难成立,对此假设作一定程度的放松。半朴素贝叶斯分类器的基本想法是适当考虑一部分属性间的相互依赖信息,从而既不需进行完全联合概率计算,又不至于彻底忽略了比较强的属性依赖关系。

    #.“独依赖估计” (One-Dependent Estimator,简称ODE)是半朴素贝叶斯分类器最常用的一种策略.所谓"独依赖"就是假设每个属性在类别之外最多仅依赖于一个其他属性,即
    机器学习笔记之贝叶斯分类
    其中,paipa_ixix_i依赖的属性,称为其父属性。

    #. 如何确定父属性
    SPODE:假设所有属性都依赖于同一个属性,即超父,然后通过交叉验证等模型选择方法确定超父属性。
    AODE:AODE 尝试将每个属性作为超父来构建SPODE,然后将那些具有足够训练数据支撑的SPODE 集成起来作为最终结果。机器学习笔记之贝叶斯分类机器学习笔记之贝叶斯分类

  8. EM算法
    常用于估计参数隐变量。若参数Θ\Theta己知,则可根据训练数据推断出最优隐变量Z 的值(E 步) ;反之,若Z 的值已知,则可方便地对参数Θ\Theta做极大似然估计(M 步) 。机器学习笔记之贝叶斯分类 EM 算法使用两个步骤变替计算:第一步是期望(E)步,利用当前估计的参数值来计算对数似然的期望值;第二步是最大化(M)步,寻找能使E 步产生的似然期望最大化的参数值。然后,得到的参数值重新被用于E 步 ……直至收敛到局部最优解.

相关文章: