用Python实现牛顿法求极值

来源:互联网 发布:地图poi数据 编辑:程序博客网 时间:2024/05/09 20:46

对于一个多元函数f(x)=f(x1,x2,,xn),用牛顿法求其极小值的迭代格式为

xk+1=xkG1kgk

其中g(x)=f(x)为函数f(x)的梯度向量,G(x)为函数f(x)的Hesse(Hessian)矩阵。

上述牛顿法不是全局收敛的。为此可以引入阻尼牛顿法(又称带步长的牛顿法)。

我们知道,求极值的一般迭代格式为

xk+1=xk+αkpk

其中αk为搜索步长,pk为搜索方向(注意所有的迭代格式都是先计算搜索方向,再计算搜索步长,如同瞎子下山一样,先找到哪个方向可行下降,再决定下几步)。

取下降方向pk=G1kgk即得阻尼牛顿法,只不过搜索步长αk不确定,需要用线性搜索技术确定一个较优的值,比如精确线性搜索或者Goldstein搜索、Wolfe搜索等。特别地,当αk一直取为常数1时,就是普通的牛顿法。

以Rosenbrock函数为例,即有

f(x)=100(x2x21)2+(1x1)2

于是可得函数的梯度

g(x)=f(x)=(400(x2x21)x12(1x1),200(x2x21))T

函数f(x)的Hesse矩阵为

(400(x23x21)+2400x1400x1200)

编写Python代码如下(使用版本为Python3.3):

"""Newton法Rosenbrock函数函数 f(x)=100*(x(2)-x(1).^2).^2+(1-x(1)).^2梯度 g(x)=(-400*(x(2)-x(1)^2)*x(1)-2*(1-x(1)),200*(x(2)-x(1)^2))^(T)"""import numpy as npimport matplotlib.pyplot as pltdef jacobian(x):    return np.array([-400*x[0]*(x[1]-x[0]**2)-2*(1-x[0]),200*(x[1]-x[0]**2)])def hessian(x):    return np.array([[-400*(x[1]-3*x[0]**2)+2,-400*x[0]],[-400*x[0],200]])X1=np.arange(-1.5,1.5+0.05,0.05)X2=np.arange(-3.5,2+0.05,0.05)[x1,x2]=np.meshgrid(X1,X2)f=100*(x2-x1**2)**2+(1-x1)**2; # 给定的函数plt.contour(x1,x2,f,20) # 画出函数的20条轮廓线def newton(x0):    print('初始点为:')    print(x0,'\n')    W=np.zeros((2,10**3))    i = 1    imax = 1000    W[:,0] = x0     x = x0    delta = 1    alpha = 1    while i<imax and delta>10**(-5):        p = -np.dot(np.linalg.inv(hessian(x)),jacobian(x))        x0 = x        x = x + alpha*p        W[:,i] = x        delta = sum((x-x0)**2)        print('第',i,'次迭代结果:')        print(x,'\n')        i=i+1    W=W[:,0:i]  # 记录迭代点    return Wx0 = np.array([-1.2,1])W=newton(x0)plt.plot(W[0,:],W[1,:],'g*',W[0,:],W[1,:]) # 画出迭代点收敛的轨迹plt.show()

上述代码中jacobian(x)返回函数的梯度,hessian(x)返回函数的Hesse矩阵,用W矩阵记录迭代点的坐标,然后画出点的搜索轨迹。

可得输出结果为

初始点为:[-1.2  1. ] 第 1 次迭代结果:[-1.1752809   1.38067416] 第 2 次迭代结果:[ 0.76311487 -3.17503385] 第 3 次迭代结果:[ 0.76342968  0.58282478] 第 4 次迭代结果:[ 0.99999531  0.94402732] 第 5 次迭代结果:[ 0.9999957   0.99999139] 第 6 次迭代结果:[ 1.  1.] 

即迭代了6次得到了最优解,画出的迭代点的轨迹如下:
牛顿法搜索轨迹

由于主要使用了Python的Numpy模块来进行计算,可以看出,代码和最终的图与Matlab是很相像的。

0 0
原创粉丝点击