Matlab中fminunc函数的意义 以及options函数的初级用法

来源:互联网 发布:天谕流光女捏脸数据 编辑:程序博客网 时间:2024/06/08 02:07

本文问题出自Stanford大学 Andrew Ng老师的机器学习week 3 Logistic Regression Model 中出现如下高级函数:
这里写图片描述
该过程涉及matlab两个函数 fminunc 和options;
要清楚的了解这两个算法如何使用,我们需要知道自定义函数的使用方法,以图上的自定义函数function [jVal,gradient] = costFunction(theta) 为例。该自定义函数传入一个theta参数(2x1)。并计算代价值 jVal = jVal = (theta(1)-5)^2 + (theta(2)-5)^2; 和每次迭代的梯度值 gradient(1) = 2*(theta(1)-5); gradient(2) = 2*(theta(2)-5);
计算结束后返回两个参数[jVal,gradient],注意这两个参数位置尤为重要,第一个返回值为jval计算值(类似于y = f(x)中的y),第二个返回值为gradient(类似于y = a+bx中的a,b)在下面的fminunc函数格式定义中需要用到。
要使用fminun函数的如下形式:[x,fval,exitflag] = fminunc(fun,x0,options);
该方法需要定义3个输入参数fun,x0和options;我们以图片的为例子进行fminunc用法的说明。
图片中的第一个输入参数fun 定义为 @costFunction 该“@”符号涉及句柄知识,在另一篇(http://blog.csdn.net/gzp444280620/article/details/49252491)博文中有讲到。
第二个输入参数x0定义为 initialTheta 该参数为一个 2x1矩阵(2个元素的列向量)。该列向量为用户自定义梯度下降法的输出参数。使用前要预先初始化。
第三个输入参数为options 该参数的的作用包括是否使用用户自定义的梯度下降公式(GradObj)以及迭代次数(MaxIter)。
例子中使用了自定义的梯度下降公式(costFunction中的gradient返回值),并且把迭代次数设为迭代100次。
例: options = optimset(‘GradObj’,’on’,’MaxIter’,’100’);
输入参数定义完成后我们来看一下fminunc的输出参数[x,fval,exitflag],其中第一个返回值x为上面function [jVal,gradient] = costFunction(theta)中的第二个返回值gra, 第二个返回值fval返回的是costFunction函数的第一个返回值jVal 这个关系是理解fminunc的重点。
第三个返回值exitflag返回值为0或1,表示在theta点定义的Jval函数是否收敛。
总结一下fminunc默认定义规格与自定义函数之间的对应关系:
这里写图片描述
备注:1.
最后一行,fminunc函数的第一个输出值,应该是最后的自变量,而不是costFunction函数的第二个输出值gradient
2.这个具体没看懂,先放着