公开课机器学习笔记(15)支持向量机五 坐标上升法 SMO优化算法
来源:互联网 发布:中国进口食品数据 编辑:程序博客网 时间:2024/05/21 13:23
3:SMO算法
a:坐标上升算法(coordinate assent algorithm)
由于种种原因,同时优化所有变量不太可能,为了得到全局最优,一次只优化一个变量,而保持其他变量不动的方法。这种方法可行的原因是通常优化一个变量的效率高且算法会比较容易实现。
特别地,当只有x,y两个变量的时候,优化的过程如下图:
图中的直线迭代优化的路径,可以看到每一步都会朝着最优解前进一小步,前进的路线是沿着坐标轴方向的,因为每一次都只优化一个变量,而保持另一个变量不变。
b:SMO算法
简化版SMO算法
和坐标上升法的思想类似,SMO算法也想每次只更新一个变量,但是很可惜,
上式限定了,当固定其他所有参数,那么α1上也是个定值,变不了;因此不得不将多增加一个αi,这样α1才能变动,关于αi的选择,有启发式方法,这里先不考虑,介绍一种简单的SMO实现方法。
简化版SMO算法的主要步骤
创建一个alpha向量并将其初始化为0向量当迭代次数小于最大迭代次数时(外循环)对数据集中的每个数据向量(内循环):如果该数据向量可以被优化:随机选择另一个数据向量同时优化这两个向量如果两个向量都不能被优化,退出内循环如果所有向量都没有被优化,增加迭代数目,继续下一次循环
如何更新α
SMO之所以高效是因为,当固定了其他参数后,对一个参数的优化过程很高效,现在我们就来看看到底怎么优化这一个参数。
假设我们选取了初始值{α1,α2,…,αn}并且满足KKT条件,下面固定{α3,…,αn},这样W就是α1,α2的函数,而α1,α2满足条件:
为了方便,我们将等式右边的常数值表示为k。
根据y1、y2符号是否相同,可以分为以下两种情况:
接下来以左边的图为例,来说明以下α的选取范围。
当y1、y2异号时,直线的斜率是1,由于KKT条件限定了α1、α2的范围必须在边长为c的正方形内,因此直线有下面两种可能性,
从图中不难总结出取值的上限H和下限L:
L=max(0,α2-α1),H=min(C,C+α2-α1)
同理,y1、y2同号时,
L=max(0,α2+α1-c),H=min(C,α2+α1)
将α1用α2来表示,带回W中,W会被表示成一个二次函数,a(α2)^2+bα2+c,二次函数求最值问题是高中最常做的一个问题了,基本思想是数形结合,找对称轴,然后看变量的取值范围里是否包含了对称轴,如下图:
根据能否取得对称轴,我们可以得到以下更新α2的原则:
有了α2,求解新的α1就不是难事了。
- 公开课机器学习笔记(15)支持向量机五 坐标上升法 SMO优化算法
- 机器学习笔记3:支持向量机的SMO高效优化算法
- 【机器学习】支持向量机(二)——序列最小最优化(SMO)算法
- 支持向量机(五)SMO算法
- 支持向量机(五)SMO算法
- 支持向量机(五)SMO算法
- 支持向量机(五)SMO算法
- 支持向量机(五)SMO算法
- 支持向量机(五)SMO算法
- 支持向量机(五)SMO算法
- 支持向量机(五)SMO算法
- 支持向量机(五)SMO算法
- 《机器学习实战》学习笔记-[6]-支持向量机SMO
- 机器学习-python通过序列最小优化算法(SMO)方法编写支持向量机(SVM)
- 深入浅出机器学习之支持向量机SVM(SMO算法)
- 斯坦福机器学习公开课笔记(九)--支持向量机
- 公开课机器学习笔记(11)支持向量机一 向量机的基本概念
- 支持向量机与SMO优化算法
- Hadoop学习笔记0001——Hadoop安装配置
- 第一章 第九题
- HDOJ1720|再谈IO库:iostream的格式化输入输出
- Android InflateLayout.inflate()原理分析
- Linux负载均衡软件LVS之一(概念篇)
- 公开课机器学习笔记(15)支持向量机五 坐标上升法 SMO优化算法
- 图说浏览器的缓存原理及缓存方式说明(1)
- 解决U盘中文件全部变成快捷方式的问题
- JVM 深入笔记(2)内存溢出场景模拟
- hdu 1011 Starship Troopers (树形dp+背包)
- Genero Studio如何改变界面字段输入顺序
- 第一章第十题
- cmd下不能ipconfig的解决方法
- 机房重构有感