斯坦福大学机器学习笔记(2)

来源:互联网 发布:文件还原软件 编辑:程序博客网 时间:2024/06/07 14:04

梯度下降(gradient descent)

梯度下降利用迭代的方法,更新θ参数,以提高回归问题中拟合的准确性。其步骤如下。

  • 以某个初值来初始化θ,例如θ=(0.1,0.2,0.3)T
  • 使用J(θ)来表示代价函数,不断更新其中θ的值来最小化J(θ),对于θ中的每个向量元素θj,更新式子为:θj:=θjα(/θj)J(θ)。利用这个式子,同时更新每个θj,0jn

假设J(θ)是一个只有一个变量的函数,则下图展示了它的曲线以及θ的对应变化。
梯度下降示意图
从图中可以看出,由于曲线的斜率在从θ0θ1...的过程中在不断变小,所以θ的下降幅度也在变小,最终会到达曲线的最低点,也就是J(θ)的最小值处。

0 0
原创粉丝点击