视觉与目标跟踪第一课——梯度下降法求已知函数的局部最优解
来源:互联网 发布:uc怎么绑定淘宝账号 编辑:程序博客网 时间:2024/06/03 23:42
梯度下降法是一种优化算法,以负梯度方向为搜索方向,用于求解无约束优化问题。算法流程图如下:
求已知函数的局部最优解,该函数的网格图如下:
分别寻找初始坐标点(0,0),(-1,-1),(-2,-1),(-1,-2)附近的局部极小值。利用MATLAB编写梯度下降法时,可以求解每一步迭代的最优步长,但是计算量比较大;在Linux系统的Eclipse实现时,选择固定步长0.000001,偏差比较值也缩小为0.0000001。输入坐标值x,y,回车,输出局部极小值的坐标点和极小值,结果均保留三位小数。点(0,0)附近的局部极小点为(0.742,0.579),值为1.518;剩下三个坐标点的局部极小点为(-3.129,-1.582),值为-106.764。这里只贴出两张运行结果的图片,如下:
机器视觉与目标跟踪的第一课,我主要学习了一些常用的概念和方法,对以后要学习的内容有个大致的了解。其次,通过上面这个小程序的练习,我第一次独立地学习使用Linux系统的C++软件,虽然开始时总是报各种错,但是一个一个消去错误的过程还是很有成就感的。尤其要感谢之前的一次经历,别人帮我装好了虚拟机和Liunx系统,免去了让我头疼的装软件的过程。
阅读全文
2 0
- 视觉与目标跟踪第一课——梯度下降法求已知函数的局部最优解
- 第一课作业:用梯度下降法求函数局部极大值
- 线性回归模型采用梯度下降算法求最优解
- 梯度与向量与梯度下降法求极值
- 简单的梯度下降法求正玄函数局部最小值
- 数据挖掘--逻辑斯蒂回归的java实现(求最优点的方法用是梯度下降法)
- 机器人视觉—以箱子为目标的跟踪检测
- 逻辑回归L1与L2正则,L1稀疏,L2全局最优(凸函数梯度下降)
- 梯度下降法求函数最小值 基于matlab实现
- 机器学习之第一站:线性回归与梯度下降法[一]——原理与实现
- 最小二乘法与梯度下降法的区别?
- 机器学习第二课:无约束优化问题(局部极小值的几种解法)(梯度下降法与拟牛顿法)
- 梯度向量与梯度下降法
- 深度模型的优化(一)——梯度下降法
- 最小二乘法与梯度下降法
- 最小二乘法与梯度下降法
- 【ML】在梯度下降法中,误差函数是局部最小如何处理
- GRADIENT DESCENT(梯度下降法)(两例对应两牛文均用该法求解目标函数)
- JavaWeb:"javax.servlet.http.HttpServlet" was not found on the Java Build Path
- 输出一个平行四边形
- Cmder利器
- windows路径操作API函数
- Python正则表达式学习(转)
- 视觉与目标跟踪第一课——梯度下降法求已知函数的局部最优解
- 徐登沿的第八个程序(scanf()函数的%c格式符存在问题的解决方法)
- volatile变量应用详解
- 初识Java
- JSP request对象和response对象
- 自动内存管理机制(1)——运行时数据区域
- ClipDrawable资源使用
- debian “更换介质...“/media/cdrom/”再按回车键“ 解决方法
- jquery全选/反选/批量删除