【Machine Learning公开课】Chapter 2
来源:互联网 发布:1到100全部素数c语言 编辑:程序博客网 时间:2024/06/05 14:21
这一讲Ng给我们讲了什么是有监督学习,以及一种常用的求最值方法:梯度下降法。
首先我们回顾下一个简单的机器学习过程:首先给出一个输入数据,我们的算法会通过一系列的过程得到一个估计的函数,这个函数有能力对没有见过的新数据给出一个新的估计,也被称为构建一个模型。我们用 X1,X2..Xn 去描述 feature 里面的分量,比如 x1=房间的面积,x2=房间的朝向, 等等,我们可以做出一个估计函数:
PS:此处
因为我们的目的是得到最优的
PS:公式前面乘1/2是为了之后求导方便
那么,我们的目的是得到使J(
那么什么是梯度下降法呢?
step1. 对 θ 赋值,这个值可以是随机的,也可以让 θ 是一个全零的向量。
step2. 改变 θ 的值,使得 J(θ)按梯度下降的方向进行减少,直至收敛。
梯度方向由 J(θ)对 θ 的偏导数确定,由于求的是极小值,因此梯度方向是偏导数的反方向。 结果为:
PS: 这里符号:=表示的是把左边变量的值设为右边变量的值,符号
那么梯度下降法就是一个不断迭代更新的过程,其中有两种方法:
1.批梯度下降
对全部的训练数据求得误差后再对 θ 进行更新。
2.随机梯度下降
每扫描一步都要对 θ 进行更新,每次更新只用取一个
总结:梯度下降法收敛速度比较慢,而且容易陷入局部最优。
- 【Machine Learning公开课】Chapter 2
- 【Machine Learning公开课】Chapter 3
- Stanford Machine Learning 公开课笔记(2) Logistic Regression
- Machine Learning机器学习公开课汇总
- "Machine Learning in Action" Chapter 2
- Machine Learning in Action Chapter 2
- 斯坦福公开课Machine Learning笔记(五)--Support Vector Machine
- 斯坦福公开课Machine Learning笔记(四)--Generative Learning Algorithm
- 斯坦福公开课Machine Learning笔记(六)--Learning Theory
- 斯坦福公开课Machine Learning笔记(八)--Online Learning
- Stanford Machine Learning 公开课笔记(4) Advice for Machine Learning
- Stanford Machine Learning 公开课笔记(5) Machine Learning System Design
- 斯坦福的 Machine Learning 公开课,可以注册在线学习
- Stanford Machine Learning 公开课笔记(1) Linear Regression
- Stanford Machine Learning 公开课笔记(3) Neural Network
- stanford公开课Machine Learning视频教程By Andrew Ng
- 斯坦福公开课Machine Learning笔记(一)--Linear Regression
- 斯坦福公开课Machine Learning笔记(三)--Generalized Linear Models
- Spring获取ApplicationContext的方法
- Face Detection & Alignment
- 跳转界面Intent 显示意图和隐式意图的特点
- 一、storm基础概念
- Saltstack内置核心模块shadow
- 【Machine Learning公开课】Chapter 2
- 关于java中的操作符
- C# 获取CPU序列号、网卡MAC地址、硬盘序列号封装类,用于软件绑定电脑
- Java进阶(五十三)屡试不爽之正则表达式
- 21.UINavigationController和UINavigationBar的使用小技巧
- vga 与 asf 同步播放
- tableView简化写法
- ubuntu14.04 mysql用户权限操作实录
- Android SDK Manager国内无法更新的解决方案