隐性马尔科夫模型学习
来源:互联网 发布:淘宝网店加盟职是真假 编辑:程序博客网 时间:2024/04/27 19:00
首先从最简单的离散Markov过程入手,我们知道,Markov随机过程具有如下的性质:在任意时刻,从当前状态转移到下一个状态的概率与当前状态之前的那些状态没有关系。所以,我们可以用一个状态转移概率矩阵来描述它。假设我们有n个离散状态S1, S2,…Sn,我们可以构造一个矩阵A,矩阵中的元素aij表示从当前状态Si下一时刻迁移到Sj状态的概率。
但是在很多情况下,Markov模型中的状态是我们观察不到的。例如,容器与彩球的模型:有若干个容器,每个容器中按已知比例放入各色的彩球(这样,选择了容器后,我们可以用概率来预测取出各种彩球的可能性);我们做这样的实验,实验者从容器中取彩球——先选择一个容器,再从中抓出某一个球,只给观察者看球的颜色;这样,每次取取出的球的颜色是可以观测到的,即o1, o2,…,但是每次选择哪个容器是不暴露给观察者的,容器的序列就组成了隐藏状态序列S1, S2,…Sn。这是一个典型的可以用HMM描述的实验。
HMM有几个重要的任务,其中之一就是期望通过观察序列来猜测背后最有可能的隐藏序列。需要确定一个最佳判断准则。在上面的例子中,就是找到我们在实验中最有可能选择到的容器序列。Viterbi正是用来解决这个问题的算法。HMM另外两个任务是:a) 给定一个HMM,计算一个观测序列出现的可能性;b)已知一个观测序列,HMM参数不定,如何优化这些参数使得观测序列的出现概率最大。解决前一个问题由于状态隐蔽而较之马尔科夫链的情况大大复杂,可以用与Viberbi结构非常类似的Forward算法来解决(实际上在下面合二为一),并且在给出两个 HMM模型时要可以选择一个更好的。而后者可以用Baum-Welch/EM算法来迭代逼近。
- 隐性马尔科夫模型学习
- 隐性马尔科夫模型学习(翻译自Wiki)
- 隐性马尔科夫模型学习(翻译自Wiki)
- 隐性马尔科夫模型学习(翻译自Wiki)
- 隐性知识的学习
- Anandkumar:高维学习概率隐性变量模型及张量算法的设计分析
- 语义识别(一):隐性马尔可夫模型
- android学习笔记12--------------隐性Intent
- 隐性语义索引(LSI)学习笔记
- 主题模型TopicModel:LSA(隐性语义分析)模型和其实现的早期方法SVD
- javascript学习----关于字符串类的隐性转换
- 利用Python gensim基于中文语料建立LSA隐性语义模型
- 隐性马尔可夫链
- 机器学习_马尔科夫模型
- 学习模型
- 基于隐性马尔科夫的英语语音合成系统中的lab文件格式的说明
- 隐性调用php程序
- 隐性收入 hidden income
- 隐马尔可夫模型(Hidden Markov Model - HMM)
- 隐性马尔科夫模型学习(翻译自Wiki)
- OnPaint()与OnEraseBkgnd()
- vim分割窗口
- 那些歌,那些时光。。。(咏春)
- 隐性马尔科夫模型学习
- 开始我的shader之旅
- C#静态构造函数
- 数组的应用和二维数组
- RTSP:实时流协议(Real Time Streaming Protocol)
- Android Native(JNI)層的多線程安全
- 封闭式的一天
- 阿里巴巴笔试题-马尔科夫(HMM)的特征
- RTSP协议报文以及控制流媒体控制流程解析