隐马尔可夫模型

来源:互联网 发布:裸钻哪里买 知乎 编辑:程序博客网 时间:2024/05/22 06:10

隐马尔可夫模型

标签: 模式分类

@author lancelot-vim


在一些与时间相关的问题中,我们会遇到t时刻发生的事件受t-1时刻发生事件的直接影响,处理这些问题时,隐马尔可夫模型(hidden markov model, HMM)得到了最好的应用,例如在语音识别或者手势识别领域,隐马尔可夫模型具有一组已经设计好的参数,他们可以最好地解释特定类别中的样本。在使用中,一个测试样本被归类为能产生最大后验概率的那个类别,也就是说,这个类别的模型最好地解释了这个测试样本。


一阶马尔可夫模型

考虑连续时间上的一系列状态,在t时刻的状态被记为w(t),一个(在时间长度上)为T的状态序列记为wT={w(1),w(2), ... ,w(T)},比如我们可能有w6={w1,w4,w2,w2,w1,w4},系统在不同时刻可以处于同一状态,但同一时刻不要求所有状态都被取到。

产生数据的机理是通过转移概率,记为P(wj(t+1)|wi(t))=aij,表示系统在某一时刻处于状态wi的情况下,下一时刻为wj的概率,这个概率是与时间无关的,即aij是个常数,我们不需要aij=aji,而且,有可能前后两个时刻都处于同一状态中,即aii0,如图所示:
一阶马尔可夫模型.png-88.2kB

假设已有模型θ,即全部转移概率aij已知,并且还知道某一特定序列wT,为了计算该模型产生这个特定序列的概率,我们需要做的仅仅是吧连续的转移概率相乘,例如计算产生上述序列的概率,我们有P(w6|θ)=a14a42a22a21a14,假如知道了第一个状态的先验概率,那么就能计算出完整的产生该序列的概率。

到目前为止,我们讨论的是一阶马尔可夫模型,因为某一时刻的概率仅仅和前一时刻有关,但是人们可能不能直接观测到某些状态,比如单词”cat”,需要从音标/k/转移到/a/,再转移到/t/,但人们往往只能听到发音而感受不到这些特定的状态,所以我们需要改变当前讨论的模型,引入”可见状态”(visible state)——即那些可以观测到的外部状态,和状态w——那些不能直接观测到的内部状态。


一阶隐马尔可夫模型

假设在某一时刻t,系统都处于某个状态w(t)中,这个系统还激发出某种可见的符号v(t),虽然复杂的马尔可夫模型允许每一时刻发出的是连续函数(比如功率谱),但这里为了简单起见,我们考虑离散符号的情形。我们把可见状态序列记为VT=v(1),v(2), ... ,v(T),那么工作过程如下:
在t时刻的状态w(t)下,没一个可能发出的状态vk(t)都有相应的概率,记为P(vk(t)|wj(t))=bjk,因为我们只能观测到可见状态,因此我们并不能知道内部处于哪个状态,所以这个模型叫做”隐马尔可夫模型”,如图所示:
一阶隐马尔可夫模型.png-166.3kB


0 0
原创粉丝点击