机器学习--无监督学习
来源:互联网 发布:淘宝鞋子买大了怎么换 编辑:程序博客网 时间:2024/05/17 02:49
前两篇文章,机器学习–监督学习(一)、机器学习–监督学习(二)总结了机器学习中的监督学习,在这篇文章中总结一下无监督学习,供以后参考使用。本文用到的内容基本来自blog,会尽量加入引用,如果疏漏还请谅解。
Jensen不等式
设
如果
特别地,如果
当
Jensen不等式应用于凹函数时,不等号方向反向,也就是
EM算法
给定的训练样本是
第一步是对极大似然取对数,第二步是对每个样本的每个可能类别
为了使用EM算法,对(2)式继续处理:
这里
Lazy Statistician 规则:
设y 是随机变量x的函数,y=g(x) (g 是连续函数),那么:
(1)x 是离散随机变量,分布为p(x=xk)=pk,k=1,2,... , 若∑∞k=1g(xk)pk 绝对收敛, 则:
E(y)=E[g(x)]=∑k=1∞g(xk)pk
(2)x 是连续型随机变量,它的概率密度为f(x) ,若∫+∞−∞g(x)f(x)dx 绝对收敛, 则:
E(y)=E[g(x)]=∫+∞−∞g(x)f(x)dx
根据上述规则,设
由公式(4)导出了似然函数的一个下界,可以看到,该下界已经将取对数放到求和里面
了,因而对其求偏导较为简单。假设当前的参数为
第一个不等号意为下界函数,第二个不等号意为在下界函数上做极大似然估计,第三个
等号是我们的假设。
回顾Jensen 不等式中令等号成立的条件,只要
有
由上述两个公式,
由以上分析,我们就得到了EM 算法的一般化形式。一般化形式的思想是,在E-step,找到对于当前参数
似然估计,得到新的参数。形式化表述为:
E-step:
M-step
为了便于理解,这里以一幅图来对EM 算法进行总结:
图中所展现的内容就是我们刚才所述主要思想,存在一个我们不能直接进行求导的似
然函数,给定初始参数,我们找到在初始参数下紧挨着似然函数的下界函数,在下界上求极
值来更新参数。然后以更新后的参数为初始值再次进行如上操作,这就是EM 进行参数估计
的方法。
当然似然函数不一定是如图中那样只有一个极值点,因而EM 算法也有可能只求出局
部极值。当然,可以如K-Means 那样多次选择初始参数进行求,然后取最优的参数。
其实,在EM 的一般化形式中,可以将目标函数看做是:
这样,EM 算法就可以看做是对目标函数的坐标上升过程,在E-step 中,
引用
- http://blog.csdn.net/stdcoutzyx/article/details/18620261
- http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html
- 机器学习--无监督学习
- 机器学习:监督学习和无监督学习
- 机器学习:监督学习和无监督学习
- 机器学习之监督学习和无监督学习
- 第一周-机器学习监督学习-无监督学习
- 机器学习笔记1---监督学习和无监督学习
- 机器学习入门:监督学习与无监督学习
- 机器学习 监督学习和无监督学习
- 机器学习笔记 (一) 监督学习、无监督学习
- 机器学习(1)监督学习和无监督学习
- 机器学习(二)无监督学习
- 聊聊机器学习中的无监督学习
- 机器学习入门(2)--无监督学习
- 机器学习-(2):无监督学习
- Python机器学习应用 | 无监督学习
- 机器学习笔记之无监督学习
- 机器学习-->无监督学习-->聚类
- 机器学习-->无监督学习-->EM算法
- 运营
- 封装实践——打造微信底部tab栏
- Python 之 os._exit(), sys.exit()
- sql注入攻击
- Android Studio超详细配置设置说明
- 机器学习--无监督学习
- ios8开发视频
- java中byte数组与int类型的转换的几种方式
- Android6.0系统MAC地址获取的方法
- ios获取图片exif信息
- linux centos6.5 64位 安装nginx
- Android Fragment 真正的完全解析(上)
- Android--这些小工具让你的Android 开发更高效
- C/C++ 二维指针 矩阵 初始化