无约束优化方法简介
来源:互联网 发布:邓超孙俪真实关系 知乎 编辑:程序博客网 时间:2024/06/05 01:17
两种基本框架
一般的,对于监督学习问题,在经过一系列分析和建模后,都将目标问题转化为一个如下形式的优化问题:
其中,
不论
Line Search (线搜索)
Line Search包括很多大家熟悉的优化方法,例如最速下降法(Steepest Descent)、牛顿法(Newton’s method)、拟牛顿法(Quasi-Newton)等等。该方法的基本思路如
其中,
该方法的过程为
Repeat
- 选择方向
-
-
Until 收敛
Trust Region (信赖域)
与Line Search的想法相反,该方法先确定一个region,该region以
该方法的过程为
Repeat
- 选择
- 选择
- 如果
Until 收敛
Trust Region方法不如Line Search方法常见,但liblinear中的l2-loss logistic regresssion 和 svm 的优化方法使用了该方法。
Line Search
方向计算
最速下降法(Steepest Descent)
在选择方向的方法中,最速下降法是最简单的。因为它以当前点的梯度方向作为下降方向,即:
其中,
然后,计算最佳步长
牛顿法(Newton’s method)
令
利用泰勒展开,有
令(2-4)的值为0,有
在实际中,往往取
拟牛顿法(Quasi-Newton)
求解式(2-5)涉及到矩阵求逆。当优化问题所涉及的参数非常多时,求逆的过程将非常繁琐。因此可以考虑近似求解
BFGS
对于
因此, 根据式(2-4)有
令
则有
L-BFGS
在本算法中,不需要存储
令
令
L-BFGS,即limited BFGS,使用最近的
OWLQN
L-BFGS方法中,需要使用到
OWLQN(Orthant-Wise Limited-memory Quasi-Newton)与LBFGS十分相似,所不同的只是在于计算方向
初始化
for
1.
2.
3.
4.
5. 更新
6. 更新
相比于LBFGS,其中的第1、2、3、6有所不同。
需要指出,针对L1正则化有众多的优化方法,这里之所以选取OWLQN进行介绍是因为它本质是LBFGS的衍生方法。
步长计算
在已知搜索方向
回溯法
我们希望每次的步长
令
for
1. if
2.
4 Trust Region
以下以二次模型为近似模型,列出实现流程
初始化
for
1.
2.
3. if
4.
5.
6.
7. if ared/pred <
8. else
9. if ared/pred >
需要指出的是,上述流程的第4步被成为信赖域法的子问题(Trust Region Subproblems)。它本质是个带约束的优化问题。具体求解的方式有很多。其中,参考文献[1]使用了共轭梯度法,可供参考。
[1] Rong-En Fan, Kai-Wei Chang, Cho-Jui Hsieh, Xiang-Rui Wang, and Chih-Jen Lin. 2008. LIBLINEAR: A Library for Large Linear Classification. J. Mach. Learn. Res. 9 (June 2008), 1871-1874.
- 无约束优化方法简介
- 无约束最优化方法
- 无约束最优化方法
- 无约束最优化方法
- 无约束最优化方法
- 无约束最优化方法
- 无约束最优化方法
- 无约束最优化方法
- 浅析无约束优化的方法
- 无约束优化
- 无约束优化方法读书笔记—入门篇
- 无约束问题的最优化方法
- 无约束最优化方法学习笔记
- 无约束优化方法读书笔记—入门篇
- 无约束最优化方法-牛顿法
- 无约束优化方法读书笔记—入门篇
- 机器学习中常用优化方法总结(无约束)
- 无约束最优化问题的一般结构与规划方法
- 赋值运算符
- zookeeper与metaq集群
- SIFT特征详细描述
- 顺时针打印矩阵
- ios 跳转数据的传递
- 无约束优化方法简介
- 使用Node.js开发一个在线聊天应用——编写后台
- PID调节的一些基本概念
- Android通讯录数据库操作
- iOS学习笔记4-21原生地图的使用
- chapter1 UNIX基础知识
- jstl参考手册
- Java性能分析工具JDK VisualVM
- samba使linux普通用户具有创建文件夹、读写文件的权限