机器学习笔记之牛顿方法

来源:互联网 发布:大数据相关技术 编辑:程序博客网 时间:2024/05/17 03:08

假设有函数:这里写图片描述,我们希望找到满足这里写图片描述这里写图片描述值. 这里这里写图片描述是实数. 

牛顿方法执行下面的更新: 
这里写图片描述 
下图为执行牛顿方法的过程: 
这里写图片描述 
简单的来说就是通过求当前点的导数得到下一个点.用到的性质是导数值等于该点切线和横轴夹角的正切值.

这里写图片描述,我们可以用同样的算法去最大化这里写图片描述 
这里写图片描述

牛顿方法的一般化: 
如果这里写图片描述是一个向量,那么: 
这里写图片描述 
其中,这里写图片描述这里写图片描述这里写图片描述的偏导数; 
H称为黑塞矩阵(Hessian matrix),是一个n*n的矩阵,n是特征量的个数,并且这里写图片描述

牛顿方法的收敛速度比批处理梯度下降快很多,很少次的迭代就能够非常接近最小值了;但是当n很大时,每次迭代求黑塞矩阵和黑塞矩阵的逆代价是很大的.

0 0