算法

来源:互联网 发布:数据库原理及应用试题 编辑:程序博客网 时间:2024/06/04 23:25

几个常用机器学习算法 - 隐马尔可夫模型

1

先引入一个知乎上看到的例子:

假设你的手中有三个不同的骰子。 
第一个是我们平常都能见到的骰子(称其为D6),6个面,每个面(1,2,3,4,5,6)出现的概率是1/6; 
第二个有4个面(称其为D4),每个面(1,2,3,4)出现的概率是1/4; 
第三个有8个面(称其为D8),每个面(1,2,3,4,5,6,7,8)出现的概率是1/8。

这里写图片描述

现在你要开始掷骰子了。 
先从三个骰子里挑一个,挑到每一个骰子的概率都是1/3。 
接着掷骰子,得到1,2,3,4,5,6,7,8中的一个点数。 
你不停地重复上述过程,会得到一串数字,每个数字都是1,2,3,4,5,6,7,8中的一个。例如你得到了这么一串数字(掷了10次):1 6 3 5 2 7 3 5 2 4

这串掷出的骰子点数叫做可见状态链。但是在隐马尔可夫模型中,我们不仅仅有这么一串可见状态链,还有一串隐含状态链。 
在这个例子里,这串隐含状态链就是你用的骰子的序列,比如隐含状态链有可能是:D6 D8 D8 D6 D4 D8 D6 D6 D4 D8 
这里写图片描述

一般来说,HMM中说到的马尔可夫链是指隐含状态链,因为隐含状态(骰子)之间存在转换概率(transition probability)。 
在上面的例子中,D6的下一个状态是D4,D6,D8的概率都是1/3。D4,D8的下一个状态是D4,D6,D8的转换概率也都一样是1/3。你可以更改转换概率,那就是新的HMM了。

尽管可见状态之间没有转换概率,但是隐含状态和可见状态之间有一个概率叫做输出概率(emission probability)。 
上面的例子中,六面骰(D6)产生1的输出概率是1/6。产生2,3,4,5,6的概率也都是1/6。

而最开始抽到骰子的概率,则是初始状态概率。这里初始抽到三种骰子的概率分别都为1/3.

而我们学习HMM模型,是因为当一个系统可以作为HMM被描述,那么我们就能解决以下三种问题

1)预测问题:你知道了骰子有几种(隐含状态数量),每种骰子是什么(转换概率),骰子掷出的结果(可见状态链),但你想知道每次掷出来的都是哪种骰子(隐含状态链)。

也叫做解码问题。

2)概率计算问题:你知道了骰子有几种(隐含状态数量),每种骰子是什么(转换概率),骰子掷出的结果(可见状态链),但你想知道掷出这个结果的概率。

这个问题看似意义不大,但这个问题可以帮你验证观察到的结果和已知的模型是否吻合;因为如果很多次结果都对应了比较小的概率,那么就说明你已知的模型很有可能是错的,有人偷偷把你的骰子給换了。

3)学习问题:你知道了骰子有几种(隐含状态数量),观测到了很多次掷骰子的结果(可见状态链),但你想反推出每种骰子是什么(转换概率)。

这个问题很重要,因为这是最常见的情况。很多时候我们只有可见结果,不知道HMM模型里的参数,我们需要从可见结果估计出这些参数,这是建模的一个必要步骤。

2

接下来要介绍上述三个问题的解决算法,所以需要一些符号来定义问题。

隐马尔科夫模型可以用三元符号表示

λ=(A,B,π)

我们定义

A 是隐含状态转换概率矩阵,A=[aij]N×N
aij是时刻t处于状态qi的条件下在时刻 t+1 转移到状态qj的概率,aij=P(it+1=qj|it=qi), i=1,2,…,N; j=1,2,…,N;

B 是可见状态生成概率矩阵,B=[bj(k)]N×M; 
bj(k)是在时刻t处于状态qj的条件下生成可见状态vk的概率,bj(k)=P(ot=vk|it=qj),k=1,2,...,M;j=1,2,...,N

π是初始状态概率向量,π=(πi); 
πi是时刻 t=1 处于状态qi的概率,πi=P(i1=qi),i=1,2,...,N

Q 是所有隐含状态的集合,Q={q1,q2,...,qN}, N是隐含状态数目; 
V 是所有可见状态的集合,V={v1,v2,...,vM}, M是可见状态数目; 
I 是长度为T的隐含状态序列; 
O 是对应的可见状态序列;

从上面的定义可以看出,隐马尔科夫模型存在2个假设

  • 假设隐藏的马尔科夫链在任意时刻t的隐含状态只依赖于其前一时刻的隐含状态,与其他时候的隐含状态及可见状态无关,也与时刻t无关;
  • 假设任意时刻的可见状态只依赖于该时刻的马尔科夫链的隐含状态,与其他可见状态无关。

3


本篇帖子整理自 
《如何用简单易懂的例子解释隐马尔可夫模型?》 
《HMM学习最佳范例四:隐马尔科夫模型》 
《统计学习算法》