wolfe 算法_最优化课课后作业笔记
来源:互联网 发布:网络专科学历有用吗 编辑:程序博客网 时间:2024/06/08 05:08
from numpy import *import sysMAXINT=sys.maxintdef gradient_(X): x1=X[0];x2=X[1] return array([(-400*(x2-x1**2)*x1-2*(1-x1)),200*(x2-x1**2)])def f(X): x1=X[0];x2=X[1] return 100*(x2-x1**2)**2+(1-x1)**2if "__main__": ''' Xk:point Pk:direction ''' Xk=array([-1,1]) Pk=array([1,1]) mu_=0.1 sigma=0.5 Fk=f(Xk) Gk=gradient_(Xk) print 'Gk=%s ^T,Fk=%s'%(Gk,Fk) print sum(gradient_(Xk)*Pk) alpha=1;b=MAXINT;a=0;j=0 flag=1 i=0 while(flag): Xk1=Xk+alpha*Pk Fk1=f(Xk1) print i,alpha,Xk1,Fk1 if Fk-Fk1<-(mu_*alpha*sum(gradient_(Xk)*Pk)): b=alpha alpha=(alpha+a)*0.5 i=i+1 elif sum(gradient_(Xk1)*Pk)<sigma*sum(gradient_(Xk)*Pk): a=alpha alpha=min(2*alpha,(a+b)*0.5) i=1+1 else: flag=0 Xk1 = Xk + alpha * Pk Fk1 = f(Xk1) print alpha,Fk1,Xk1
0 0
- wolfe 算法_最优化课课后作业笔记
- 线性约束最优化问题的Frank-Wolfe方法
- 机器学习笔记_ 数值最优化_2:最优化算法
- 算法课后作业第二题
- Java实现最短作业优化算法 (SJF算法)
- 机器学习_最优化算法_梯度下降
- 数值优化学习——wolfe条件里的线搜索算法
- 数值优化学习——wolfe条件里的线搜索算法
- 优化MySchool 第六章课后作业
- 【作业】算法概论课后证明题8.14
- 第一课课后作业------列表
- 第二十一次课课后作业
- 机器学习课后作业笔记(一)
- 机器学习课后作业笔记(二)
- 12.13课堂笔记、课后作业、学习心得
- 12.14课堂笔记、课后作业、学习心得
- 【DayDayUp】【算法_图_最短路_之一_Dijkstra和几种优化姿势】
- 机器学习笔记_ 数值最优化_3:KKT条件
- android开发之蓝牙的基本操作
- 一个小目标,深入浅出的学习
- AdapterView(四)
- 约瑟夫环
- CENTOS6.8 安装配置rsync
- wolfe 算法_最优化课课后作业笔记
- 死锁
- keras面向小数据集的图像分类(VGG-16基础上fine-tune)实现(附代码)
- C语言实现链表的基本操作
- excel中的不常用知识
- 在IOS上UC浏览器清楚缓存出现的BUG
- 插入排序
- presto源码分析(查询)
- 链表的快慢指针:查找中点