1. 背景知识
1.1随机过程
随机过程是随机变量的集合,其在随机变量的基础上引入时间的概念(可简单理解为随机变量关于时间的函数)。例如,
其定义如下:设:
1.2 马尔可夫性质
马尔可夫性质是概率论中的一个概念:当一个随机过程在给定现在状态及所有过去状态的情况下,其未来状态的条件概率分布仅依赖于当前状态,简而言之,随即过程中某状态的发生只取決它上一个时刻的状态,那么此随机过程即具有马尔可夫性质。数学上,如果
-
Pr[X(t+h)=y|X(s)=x(s),s⩽t]=Pr[X(t+h)=y|X(t)=x(t)],∀h>0
一般来说,具备马尔可夫性质的随机过程是不具备记忆特质的。在这个系统中,现在的条件概率和过去及未来的状态都是独立且不相关的,具备马尔可夫性质的过程通常称为马尔可夫过程。
1.3 马尔可夫链
具备离散状态的马尔可夫过程,通常被称为马尔可夫链 。该过程中,在给定当前知识或信息的情况下,只有当前的状态用来预测将来,过去(即历史状态)对于预测未来(即当前之后的状态)是无关的。在马尔可夫链的每一步。系统根据概率分布,可以从一个状态变到另一个状态,也可以保持当前状态。状态的改变称为“迁移”,与不同的状态改变相关的概率称为“状态迁移概率”。马尔可夫链的典型例子包括:随即游走,PageRank算法。
下图给出了一个在两个状态间进行迁移的马尔可夫链模型示意图:
其数学定义如下:马尔可夫链是随机变量
-
P(Xn+1=x|X0,X1,X2,...,Xn)=P(Xn+1=x|Xn)
这里
1.4 模式的形成
确定性模式:
考虑一套交通信号灯,灯的颜色变化序列依次是“红色→红色→黄色→绿色→黄色→红色”,如下图所示。
其中,每个状态都唯一地依赖于前一个状态。因此,如果当前交通灯为绿色,那么随后的交通灯颜色将只能是黄色,也就是说,该系统是确定性的。
非确定性模式:
马尔可夫链就是一种非确定性模式,状态之间的迁移不是确定的。下图给出了一阶天气状态变迁图,其中包含三个状态(晴天、雨天、多云),通过今天的天气状态可预测明天某天气状态出现的概率。
对于
可见,如果今天是晴天,那么明天是晴天的概率为0.5,多云的概率为0.375,下雨的概率为0.125。该过程假设概率值不随时间发生变化。
2. 隐马尔可夫模型
首先用参考资料中一个简单的例子来阐述:假设我手里有三个不同的骰子。第一个骰子是我们平常见的骰子(称这个骰子为D6),6个面,每个面(1,2,3,4,5,6)出现的概率是1/6。第二个骰子是个四面体(称这个骰子为D4),每个面(1,2,3,4)出现的概率是1/4。第三个骰子有八个面(称这个骰子为D8),每个面(1,2,3,4,5,6,7,8)出现的概率是1/8。
假设我们开始掷骰子,我们先从三个骰子里挑一个,挑到每一个骰子的概率都是1/3。然后我们掷骰子,得到一个数字,1,2,3,4,5,6,7,8中的一个。不停的重复上述过程,我们会得到一串数字,每个数字都是1,2,3,4,5,6,7,8中的一个。例如我们可能得到这么一串数字(掷骰子10次):1 6 3 5 2 7 3 5 2 4。这串数字叫做可见状态链。但是在隐马尔可夫模型中,我们不仅仅有这么一串可见状态链,还有一串隐含状态链。在这个例子里,这串隐含状态链就是你用的骰子的序列。比如,隐含状态链有可能是:D6 D8 D8 D6 D4 D8 D6 D6 D4 D8。
一般来说,HMM中说到的马尔可夫链其实是指隐含状态链,因为隐含状态(骰子)之间存在转换概率(transition probability)。在我们这个例子里,D6的下一个状态是D4,D6,D8的概率都是1/3。D4,D8的下一个状态是D4,D6,D8的转换概率也都一样是1/3。这样设定是为了最开始容易说清楚,但是我们其实是可以随意设定转换概率的。比如,我们可以这样定义,D6后面不能接D4,D6后面是D6的概率是0.9,是D8的概率是0.1。这样就是一个新的HMM。
同样的,尽管可见状态之间没有转换概率,但是隐含状态和可见状态之间有一个概率叫做输出概率(emission probability)。就我们的例子来说,六面骰(D6)产生1的输出概率是1/6。产生2,3,4,5,6的概率也都是1/6。我们同样可以对输出概率进行其他定义。比如,我有一个被赌场动过手脚的六面骰子,掷出来是1的概率更大,是1/2,掷出来是2,3,4,5,6的概率是1/10。
2.1马尔可夫过程的局限性
回到天气的例子,实际情况中,观察者无法直接获取天气状况的观测值,但他们手中有一些海藻,民谚告诉我们,海藻的状态或许与天气的状态有密切的关系。由此我们得到了两种状态:可观测状态(海藻的干湿程度:dry,dryish,damp,soggy),和隐含状态(天气状况:sunny,cloudy,rainy)。我们希望基于马尔可夫假设和海藻的状态设计出某种算法,从而实现在缺乏天气历史观测数据的情况下,对未来的天气情况进行预测。另一个更实际的例子是语音识别问题,一些语音识别系统的工作原理是将语音所对应的单词视为隐状态,而采集到的声音视为观测状态。
根据海藻的干湿程度的观测值,我们对天气的例子进行重新设计,下图给出了其对应的隐马尔可夫模型:
隐藏状态相互之间是关联的,隐藏状态和观察状态之间的链接表示:在当前马尔可夫过程所处的特定隐藏状态下,生成特定观测状态的概率。因此,对每个观测状态而言,在所有隐藏状态下观测到该状态的概率值之和应该为1,即
2.2 隐马尔可夫模型定义
隐马尔可夫模型(Hidden Markov Model,HMM)是一个统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别。在一般的马尔可夫模型中,状态对于观察者来说是直接可见的。这样状态的转换概率便是全部的参数。而在隐马尔可夫模型中,状态并不是直接可见的,但受状态影响的某些变量则是可见的。每一个状态在可能输出的符号上都有一个概率分布。因此输出符号的序列能够透露出状态序列的一些信息。
一个隐马尔可夫过程是一个三元组
-
Π=(πi) 隐状态的初始概率向量 -
A=(aij) 状态转移概率,Pr(xit|xjt−1) -
B=(bij) 观测状态发生的概率,Pr(yi|xj)
在实际应用中,人们常关注隐马尔可夫模型的三个基本问题:
-
评估问题: 给定模型
λ=(Π,A,B) ,如何计算其产生观测序列的概率P(y|λ) 。换而言之,如何评估模型与观测序列的匹配程度(采用forward算法)。 -
解码问题: 给定模型
λ=(Π,A,B) 和观测序列,如何找到与此观测序列最匹配的隐状态序列(采用viterbi算法算法)。 -
学习问题: 给定观测序列,如何调整模型参数
λ=(Π,A,B) 使得该序列出现的概率P(x|λ) 最大。换而言之,如何训练模型使其能最好的描述观测数据(采用forward-backward算法)。
下文将结合天气的例子,重点介绍forward算法和viterbi算法。
3. forward算法
首先定义一个局部概率(partial probability)
3.1 局部概率
我们可以通过对从初始状态到达到达某个中间状态的所有路径进行求和得到该状态的概率值。例如,t=2时刻,隐状态为cloudy的概率可用三条路径的概率之和来表示:
我们用
最终观测状态的局部概率值为:通过所有可能的路径到达该观测值对应的各种隐藏状态的概率。例如,最终的局部概率通过如下路径得到:
对这些最终的局部概率进行求和,相当于对所有可能的路径进行求和,由此也就得到了从该HMM模型假设出发,生成指定观测序列的概率。
3.2 计算t = 1时刻的α值
当 t=1 的时候,没有通向该观测值对应的隐状态的路径,所以这里初始概率值,即:
-
Pr(state|t=1)=π(state)
相应地,各隐藏状态的局部概率值可以通过隐藏状态概率初始值与观测状态的发生概率相乘得到:
-
α1(j)=π(j)⋅bjk1
因此,系统初始时刻处于状态j的局部概率同时依赖于:该状态的初始概率和该时刻我们观察到相应观测值的概率
3.3 计算t > 1时候的α值
回顾一下局部概率的计算公式:
需要计算的路径数是和观察序列的长度的平方相关,但是 t 时刻的局部概率已经包含了之前的所有路径,所以在 t+1 时刻只需要根据 t 时刻的概率来计算就可以了,即:
-
αt+1(j)=bjkt+1∑ni=1αt(i)aij
4. viterbi算法
在很多情况下,我们对隐藏状态更有兴趣,因为其包含了一些不能被直接观察到的有价值的信息。比如说在海藻和天气的例子中,一个人只能看到海藻的状态,但是他想知道天气的状态。这时候我们就可以使用 Viterbi 算法来根据可观察序列得到最有可能的隐藏状态的序列。在给定了一个可观察序列和HMM的情况下,我们可以考虑递推的来寻找最可能的隐藏序列。
4.1 局部概率与局部最优路径
考虑下面这个图以及可观察序列 (dry, damp, soggy) 的一阶转移:
对于每一个中间状态和终止状态 (t=3) 都有一个最可能的路径。比如说,在 t=3 时刻的三个状态都有一个如下的最可能的路径:
我们可以称这些路径为局部最优路径。这些局部最优路径都有一个概率,也就是局部概率
4.2 计算t = 1时刻的δ值
当前当 t=1 时刻的时候,此时已知的仅有当前观测值,到达某个状态最大可能的路径还不存在,可结合初始状态概率和这个状态到可观察序列
-
δ1(i)=π(i)bik1
4.3 计算t > 1时刻的δ值
如下图所示,我们希望计算出在时刻t到达状态X的最可能的路径,而该路径在t-1时刻有可能经过三种状态(A,B,C)中的某一个,因此我们希望从所有以AX,BX,CX结尾的路径中找出概率最大者。
回顾一阶马尔可夫假设:当前系统处于某特定状态的概率仅仅取决于此前的1个状态。因此结合上例有:以AX结尾的最可能的路径,也就是以最大概率抵达A后再去往X的路径的概率为:
-
Pr( most probable path to A)Pr( X | A)Pr( observation | X)
因此,以X为终点的最可能路径的概率定义如下:
-
Pr( X at time t) =maxi∈A,B,CPr( i at time (t - 1))×Pr(X|i)Pr( observations at time t |X)
其中等号右边第一项由t-1时刻的
-
δt(i)=maxj(δt−1(j)ajibikt))
4.4 反向指针
对于每一个中间状态和结束状态我们可以得到局部概率
-
ϕt(i)=argmaxj(δt−1(j)aji)
注意:
5. 参考资料
- http://www.comp.leeds.ac.uk/roger/HiddenMarkovModels/html_dev/main.html
- http://blog.csdn.net/likelet/article/details/7056068
- http://www.cnblogs.com/skyme/p/4651331.html