【Stanford机器学习笔记】1-Linear Regression with One Variable
来源:互联网 发布:淘宝运动鞋店铺排行榜 编辑:程序博客网 时间:2024/04/28 20:09
1. Model Representation
单变量线性回归即假设函数中
2. Cost Function
代价函数J又叫误差平方函数,即所有样本的残差平方和。训练的目标是最小化代价函数,获取最优参数
备注:整个课程中,除特殊说明,m都是指训练样本(training examples)的个数,n都是指特征的个数(feature),即特征维数(feature dimension),i指的是第i个样本(
ith example ),j是指的第j个参数θj .
3. Cost Function-Intuition I
假设函数
现在令
4. Cost Function-Intuition II
现在令
课中是通过手动调节参数来是得代价函数
J(θ) 最小,进而获得最优参数,接下来的课中主要讲如何自动的训练模型来获得最优参数。
5. Gradient Descent
梯度下降法是机器学习中最常用的优化算法之一,该算法的主要流程是:
(1)计算代价函数
(2)利用梯度下降更新参数的值(注意是同时更新所有参数);
(3)依次循环1-2步,直至收敛(convergence)停止。
6. Gradient Descent Intuition
(1)梯度下降中的导数项
假设只有一个参数
(2)梯度下降中的学习率
如果学习率太小,则梯度下降将非常慢;如果太大,则可能会错过最代价函数最小值,或不能收敛。
(3)局部最小值(局部最优)
如果
(4)接近最优,梯度下降逐渐减慢
如果学习率
7. Gradient Descent for Linear Regression
(1)将梯度下降优化算法用于线性回归(假设只有一个参数x),关键在于计算其中的导数项
(2)依次对参数进行求偏导
(3)同时更新参数值,循环以上步骤直至收敛
Note:
上一节中我们讲到,梯度下降可能会收敛到局部最小值,但是对于代价函数J(θ0,θ1) 来说不会存在这个问题,因为J(θ0,θ1) 是一个凸函数,只有一个全局最小值。
以上是使用的方法称为批量梯度下降法,即训练时遍历所有训练样本,还有另外一种方法叫随机批量梯度下降法(Stochastic Gradient Descent,SGD),在遍历循环时只需要部分样本即可,随后课程会讲到。
- 【Stanford机器学习笔记】1-Linear Regression with One Variable
- Stanford机器学习---第一讲. Linear Regression with one variable
- Stanford机器学习---第一讲. Linear Regression with one variable
- Stanford机器学习---第一讲. Linear Regression with one variable
- Stanford机器学习---第一讲. Linear Regression with one variable
- Stanford机器学习---第一讲. Linear Regression with one variable
- Stanford机器学习---第一讲. Linear Regression with one variable
- Stanford机器学习---第一讲. Linear Regression with one variable
- Stanford机器学习---第一讲. Linear Regression with one variable
- Stanford机器学习---第一讲. Linear Regression with one variable
- Stanford机器学习---第一讲. Linear Regression with one variable
- Stanford机器学习 -- Linear Regression with one variable
- Stanford机器学习---第一讲. Linear Regression with one variable
- Stanford机器学习---第一讲. Linear Regression with one variable
- Stanford机器学习---第1讲. Linear Regression with one variable
- 机器学习-Linear Regression with One Variable
- Stanford机器学习-Linear Regressioon with One Variable(1)
- Stanford机器学习---第一讲. Linear Regression with one variable(补充版)
- Studio导入SlidingMenu流程详解及相关问题
- 多线程初步了解
- WebBasic02-CSS
- POJ_2773_Happy 2006_ 欧几里得算法
- Linux常用命令
- 【Stanford机器学习笔记】1-Linear Regression with One Variable
- ubutun的软件安装
- C# Lock关键字
- 挑战密室 nyoj 1236 acm
- 随想
- 剑指Offer:树的层次遍历,分层打印和按之字型打印
- Lucene索引的建立
- hdu 1879 继续畅通工程 最小生成树kruskal
- 18、EL表达式、JSP标签、JSTL标签、自定义标签