用Python实现最速下降法求极值
来源:互联网 发布:mpi编程是什么意思 编辑:程序博客网 时间:2024/05/20 18:02
原文:http://blog.csdn.net/u012705410/article/details/47254437
最速下降法就是梯度下降法
对于一个多元函数
其中
一般情况下,最优步长
为了调用的方便,编写一个Python文件,里面存放线性搜索的子函数,命名为linesearch.py,这里先只编写了Goldstein线性搜索的函数,关于Goldstein原则,可以参看最优化课本。
线性搜索的代码如下(使用版本为Python3.3):
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
上述函数的输入参数主要包括一个多元函数f,其导数df,当前迭代点x和当前搜索方向d,返回值是根据Goldstein准则确定的搜索步长。
我们仍以Rosenbrock函数为例,即有
于是可得函数的梯度为
最速下降法的代码如下:
"""最速下降法Rosenbrock函数函数 f(x)=100*(x(2)-x(1).^2).^2+(1-x(1)).^2梯度 g(x)=(-400*(x(2)-x(1)^2)*x(1)-2*(1-x(1)),200*(x(2)-x(1)^2))^(T)"""import numpy as npimport matplotlib.pyplot as pltimport randomdef goldsteinsearch(f,df,d,x,alpham,rho,t): flag=0 a=0 b=alpham fk=f(x) gk=df(x) phi0=fk dphi0=np.dot(gk,d) alpha=b*random.uniform(0,1) while(flag==0): newfk=f(x+alpha*d) phi=newfk if(phi-phi0<=rho*alpha*dphi0): if(phi-phi0>=(1-rho)*alpha*dphi0): flag=1 else: a=alpha b=b if(b<alpham): alpha=(a+b)/2 else: alpha=t*alpha else: a=a b=alpha alpha=(a+b)/2 return alphadef rosenbrock(x): return 100*(x[1]-x[0]**2)**2+(1-x[0])**2def jacobian(x): return np.array([-400*x[0]*(x[1]-x[0]**2)-2*(1-x[0]),200*(x[1]-x[0]**2)])X1=np.arange(-1.5,1.5+0.05,0.05)X2=np.arange(-3.5,2+0.05,0.05)[x1,x2]=np.meshgrid(X1,X2)f=100*(x2-x1**2)**2+(1-x1)**2; # 给定的函数plt.contour(x1,x2,f,20) # 画出函数的20条轮廓线def steepest(x0): print('初始点为:') print(x0,'\n') imax = 20000 W=np.zeros((2,imax)) W[:,0] = x0 i = 1 x = x0 grad = jacobian(x) delta = sum(grad**2) # 初始误差 while i<imax and delta>10**(-5): p = -jacobian(x) x0=x alpha = goldsteinsearch(rosenbrock,jacobian,p,x,1,0.1,2) x = x + alpha*p W[:,i] = x grad = jacobian(x) delta = sum(grad**2) i=i+1 print("迭代次数为:",i) print("近似最优解为:",x) W=W[:,0:i] # 记录迭代点 return Wx0 = np.array([-1.2,1])W=steepest(x0)plt.plot(W[0,:],W[1,:],'g*',W[0,:],W[1,:]) # 画出迭代点收敛的轨迹plt.show()
- 1
- 2
当然,如果把定义goldsteinsearch函数的代码直接放到程序里面,就不需要这么麻烦了,但是那样的话,不仅会使程序显得很长,而且不便于goldsteinsearch函数的重用。
此外,Python对函数式编程也支持的很好,在定义goldsteinsearch函数时,可以允许抽象的函数f,df作为其输入参数,只要在调用时实例化就可以了。与Matlab不同的是,传递函数作为参数时,Python是不需要使用@将其变为函数句柄的。
运行结果为
- 1
- 2
- 3
- 4
- 5
- 6
- 7
迭代点的轨迹为
由于在线性搜索子程序中使用了随机函数,初始搜索点是随机产生的,因此每次运行的结果不太相同,比如再运行一次程序,得到
- 1
- 2
- 3
- 4
- 5
- 6
- 7
所得图像为
- 用Python实现最速下降法求极值
- 用Python实现最速下降法求极值
- 用Python实现牛顿法求极值
- 梯度与向量与梯度下降法求极值
- 最速下降法/梯度下降法公式推导与python实现
- matlab实现最速下降法和dfp求函数最小值
- 最速下降法和牛顿方法的Python实现和MATLAB实现
- 最速下降法求特征值matlab程序
- 最速下降法+armijo 求rosenbrock多维函数
- python最优化-梯度下降实现
- 最速下降法
- 最速下降法
- 最速下降法
- 最速下降法
- 梯度下降法-最速下降法
- 最速下降法/梯度下降法
- 通过导数求极值为什么还需要梯度下降
- Python实现梯度下降法
- 线性表综合实验之静态链表的实现
- HDU 2680-Choose the best route
- <3>编写带有main()的类
- 分离分层结构与平台设备驱动
- asp.net 虹软人脸识别 释放内存
- 用Python实现最速下降法求极值
- LeetCode45. Jump Game II
- py day01
- 进度报告——01
- php语法
- 程序员最经常访问的站点
- ubuntu下安装swoole
- java protostuff实现文件级数据缓存,使用文件缓存对象,java文件级数据缓存
- shell与C语言