Andrew Ng公开课学习笔记——Coordinate ascent(坐标上升法)
来源:互联网 发布:软件测试与分析 编辑:程序博客网 时间:2024/05/21 08:45
Coordinate ascent
想象我们正在解决这样一个无约束优化问题
我们的优化思路是,每次迭代均保持除
可以看出来,内循环中
图中的椭圆是二次函数的等高线,越往外等高线上的数值越大,并且
与牛顿法的比较##
与牛顿法进行对比,坐标上升法通常会经过更多的步骤才能收敛,但是坐标上升法的主要优点是相对于
引出SMO
将坐标上升法应用于支持向量机的优化问题中时,就需要对该算法做一些更改:
- 坐标上升法中参数总是按顺序交替更新,即相对于
α1 取最大值,之后是α2 、α3 ,…。实际上当你有很多参数,例如α1 ,…,αm ,可以不按照固定的顺序访问它们,如果你认为这样会帮助你更快的逼近最大值。实际上,我们用一种启发式规则选择每次更新的参数。 - 支持向量机的优化问题是有约束的,其中一个约束是
∑mi=1αiyi=0 ,如果保持除αi 之外的所有参数,那么αi 也就固定了。所以每次选择两个参数进行更新。
阅读全文
0 0
- Andrew Ng公开课学习笔记——Coordinate ascent(坐标上升法)
- Andrew Ng公开课学习笔记——总目录
- 坐标上升算法(Coordinate Ascent)及C++编程实现
- SVM求解之坐标上升算法(Coordinate Ascent)
- 坐标上升算法(Coordinate Ascent)及C++编程实现
- 坐标上升算法(Coordinate Ascent)及C++编程实现
- 《机器学习》(Machine Learning)——Andrew Ng 斯坦福大学公开课学习笔记(一)
- 《机器学习》(Machine Learning)——Andrew Ng 斯坦福大学公开课学习笔记(二)
- 《机器学习》(Machine Learning)——Andrew Ng 斯坦福大学公开课学习笔记(三)
- Andrew Ng公开课学习笔记——均方误差损失函数的概率解释
- 【转载】Andrew Ng机器学习公开课笔记 — 线性回归和梯度下降
- Andrew Ng机器学习公开课笔记 — 线性回归和梯度下降
- 斯坦福大学公开课 :机器学习课程(Andrew Ng)——4、监督学习:Naive Bayes
- 斯坦福大学公开课 :机器学习课程(Andrew Ng)——8、监督学习:Learning Theory
- Andrew Ng机器学习公开课(斯坦福)——1.学习动机与资料整理
- Andrew Ng机器学习公开课第一节笔记
- 损失函数 - Andrew Ng机器学习公开课笔记1.2
- 斯坦福大学公开课 :机器学习课程(Andrew Ng)——1、整体看一看
- DL 资源网站收集
- leetcode--链表总结
- Continuous-Time LTI System : The Convolution Integral Representation
- Python 小说内容抓取
- SSH与SSM学习之Spring04——Spring属性注入之set方法注入
- Andrew Ng公开课学习笔记——Coordinate ascent(坐标上升法)
- Linux打开虚拟机错误
- SSH与SSM学习之Spring05——Spring属性注入之构造函数注入
- 刻意学习:持续行动让你人生逆袭
- hdu 4974 A simple water problem(14多校8)思维题
- ubuntu16.04安装和配置上网
- SSH与SSM学习之Spring06——Spring属性注入之p名称空间注入
- 栈的应用--马踏棋盘-贪心加栈
- consul的安装和配置