Preface

主要内容:
Exponential Family(指数分布族)
Generalized Linear Models(广义线性模型)
Softmax Regression

Exponential Family

首先,我们回忆一下前面几节课所讲的内容,主要是通过高斯分布和伯努力分布进而推导出最小二乘法概率模型与逻辑回归概率模型。
(1)yR:Gaussian(ϕ)LeastSquares
(2)y{0,1}:Bernoulli(ϕ)LogisticRegression
而,高斯分布和伯努力分布都可以写成指数分布族的形式:

(3)p(yη)=b(y)exp(ηTT(y)a(η))

其中,η 为自然参数(nature parameter),T(y) 是充分统计量(sufficient statistic),在一般情况下,T(y)=y 。当参数abT(y) 都固定以后,就定义了一个以η 为参数的函数族。

接下来以高斯分布和伯努力分布说明如何定义了一个以η 为参数的函数族:

1.Bernoulli Distribution

伯努利分布是对0,1分布的问题进行建模。所以,其概率密度函数如下:

(4)Bernoulli(ϕ)=p(yη)={p(y=1y;φ)=φp(y=0y;φ)=1φ,y{0,1}

即,
(5)P(y,ϕ)=ϕy(1ϕ)(1y)(6)=exp(logϕy(1ϕ)(1y))(7)=exp(ylogϕ+(1y)log(1ϕ))(8)=exp(ylogϕ1ϕ+log(1ϕ))

所以有,
(9)η=logϕ1ϕ
(10)ϕ=11+eη
(11)P(y,ϕ)=log(1ϕ)(12)=log(1+eη)

(13)T(y)=y
(14)b(y)=1
这样我们就可以清楚地看出伯努力分布如何定义了一个以η 为参数的函数族。同时也说明了,y{0,1}:Bernoulli(ϕ)LogisticRegression 的模型函数的logistic函数的形式问题

2.Gaussian Distribution

在线性回归模型中,σ2 的取值对于最后的 θhθ(x) 无影响,故以在这里,我们将σ2 取值为1。所以,高斯分布概率密度函数如下:

(15)N(y;μ,1)=12πexp(12(yμ)2)(16)=12πexp(12y212μ2+μy)(17)=12πexp(12y2)exp(μy12μ2)

所以有,

(18)η=μ
(19)T(y)=y
(20)a(η)=μ2/2=η2/2
(21)b(y)=12πexp(12y2)

这样我们就可以清楚地看高斯分布如何定义了一个以η 为参数的函数族。

这样,我们就说明了高斯分布和伯努力分布属于指数分布族 。同样的还有泊松分布(用于对记数建模,例如网站的访客数量,商店的顾客数)、伽马分布与指数分布(用于正数的分布,对间隔进行建模,例如在公交站等车时的下一趟车什么时候到)、β 分布与Dirichlet分布(用于小数的分布,对概率分布进行建模的概率分布)、Wishart分布(协方差矩阵分布)等等都属于指数分布族。

Multinomial Distribution

多项式分布是对伯努力分布的多元扩展,主要用于解决多分类问题。多分类问题使得对于0-1问题建模的伯努力分布 y{0,1} 无法满足问题需要,进而有 y{1,2...k}

定义1:概率 p(y=i)=ϕi ,为了避免过参数化所以有:ϕi=p(y=i;ϕ)
k{1,k1} ,可以推出 ϕk=1i=1k1ϕi
定义2:由于 T(y)y ,所以 T(y)Rk1 ,即为:
Andrew Ng机器学习课程笔记(四)之监督学习之Generalized Linear Models
定义3: 指示器函数 1{true}=1;1{false}=0 ,既有 (T(y))i=1{y=i} ,继而推得 E[(T(y))i]=P(y=i)=ϕi

所以,多项式分布概率密度函数如下:
Andrew Ng机器学习课程笔记(四)之监督学习之Generalized Linear Models
所以有,
Andrew Ng机器学习课程笔记(四)之监督学习之Generalized Linear Models

所以,推导可得:ηi=logϕiϕk ,同时ηk=logϕkϕk=log1=0

继续推导:

(22)eηi=ϕiϕk

(23)ϕkeηi=ϕi

(24)ϕki=1keηi=i=1kϕi=1

(24)ϕk=1i=1keηi

由等式(23)ϕkeηi=ϕi 可以得:

(25)ϕi=ϕkeηi=eηij=1keηj

Generalized Linear Models

Three Assumptions

首先我们对于GLM(Generalized Linear Models,广义线性模型)做出下述三个假设(设计决策):

  1. y|x;θExponentialFamily(η) ,假设一的式子表示变量y 在给定的x ,并以θ 为参数下的条件概率分布,属于以自然参数 η 的指数分布族。
  2. 给定 x ,目标输出期望 E[T(y)|x],估计函数为:h(x)=E[T(y)|x],一般 T(y)=y
  3. η=θTx ,即指数分布族中参数 η 与输入特征 x 满足某种线性关系。(一般而言,ηi=θiTx,ηR

由Bernoulli Distribution到Logistic Regression模型

Step1:Bernoulli:y|x;θExpFamily(η)
Step2:由假设二 hθ(x)=E(y|x;θ)=P(y=1|x:θ)=ϕ
Step3:由公式(10)ϕ=1/(1+eη) 和 假设三η=θTx
Step4:所以 ϕ=1/(1+eη)ϕ=1/(1+eθTx)
Step5: ϕ=1/(1+eθTx) 就是Logistic Regression模型;

Note:

  1. g(η)=E[y|η]=(1+eη)1 ,正则响应函数 。
  2. g(η)1,正则关联函数。

由Gaussian Distribution到Ordinary Least Squares模型

Step1:Gaussian:y|x;θExpFamily(η)N(μ,σ2)
Step2:由假设二 hθ(x)=E(y|x;θ)=μ
Step3:由公式(18)η=μ 和 假设三η=θTx
Step4:所以 hθ(x)=E(y|x;θ)=μ=η=θTx
Step5: hθ(x)=θTx 就是Ordinary Least Squares模型;

由Multinomial Distribution到Softmax Regression模型

Step1:Multinomial :y|x;θExpFamily(η)
Step2:由假设三 η=θTx

(26)p(y=i|x;θ)=ϕi(27)=eηij=1keηj(28)=eθiTxj=1keθjTx

Step3:由假设二
Andrew Ng机器学习课程笔记(四)之监督学习之Generalized Linear Models

For Example:
假设有一个大小为m的训练集,它的似然函数为:
Andrew Ng机器学习课程笔记(四)之监督学习之Generalized Linear Models
最后在在有了最大似然函数之后,我们就可以使用牛顿法或梯度法来求 θ

相关文章: