Andrew Ng机器学习之三 多变量线性回归
来源:互联网 发布:荣格心理学 知乎 编辑:程序博客网 时间:2024/06/05 05:32
1. 多维特征 (Multiple features)
上一篇:单变量线性回归中只针对单个特征,如下图所示:
对于拥有多个特征的样本,比如在房价问题中,房子尺寸(size)、地理位置(Area)等多个特征都会最终影响房屋的实际价格,如下图所示:
现定义:
对于假设函数
方便起见,记
2.梯度下降算法在多变量线性回归中的应用(Gradient descent for multiple variables)
假设函数(Hypothesis Function):
损失函数(Cost Function):
在多变量线性回归中,特征向量
2.1 梯度下降实践一:特征归一化(Feature Scaling)
为啥要进行特征归一化呢?原因在于梯度下降算法需要使不同维度的向量构成的空间不那么扁,例如如果前一个特征的数据范围在[1-100]内,后一个特征范围在[1-10000],那么这两个特征组成的向量空间是一个椭圆(如图)。那么在使用梯度下降算法时,需要经过非常多次的迭代才能收敛。
解决方法是尝试将所有特征的尺度都尽量缩放到-1到+1之间,此过程即为特征归一化(Feature Scaling)
归一化方法多种多样,其中一种简易方法为均值归一化(Mean Normalization),即先求出均值,然后:
2.2 梯度下降实践二:学习速率(Learning Rate)
梯度下降公式:
注意到其中的
因此如果梯度下降算法不能正确运行,常常是因为
3. 特征及多项式回归(Features and polynomial regression)
特征选择: Ng给出的思路是:不一定要选择最直接的,全部的特征,而可以从已知的数据中选取对当前模型影响最大的一些特征,或者这些特征的组合。
例如:在对房价预测的模型中,已知条件有长度
多项式回归:线性回归有时不能很好地拟合给定的样本点,例如:
这时候就需要使用多项式,如果要拟合该曲线,至少需要3次多项式,如:
则
4. 正规方程(Normal equation)
之前讲到了梯度下降(Gradient descent),它需要设置初始的
事实上针对线性回归,还有一种正规方程(Normal equation)的解法,看Ng的例子:
直接计算:
4.1 梯度下降 VS 正规方程
总结就是:特征数量
- Andrew Ng机器学习之三 多变量线性回归
- Andrew NG 机器学习 笔记-week2-多变量线性回归
- Andrew Ng机器学习笔记week2 多变量线性回归
- Andrew Ng机器学习笔记(二):多变量线性回归
- 【机器学习】Andrew Ng——04多变量线性回归
- 机器学习 Machine Learning(by Andrew Ng)----第三章 多变量线性回归(Linear Regression with multiple variable)
- 【机器学习】coursera学习笔记(三) 多变量线性回归
- 机器学习之——多变量线性回归
- 机器学习之——多变量线性回归
- 机器学习:多变量线性回归
- Andrew Ng机器学习之二 单变量线性回归
- Python学习(机器学习_多变量线性回归)
- 机器学习实战:多变量线性回归的实现
- 机器学习实战:多变量线性回归的实现
- Stanford 机器学习 第三讲------- 多变量线性回归
- Coursera2014 机器学习第二周 多变量线性回归
- 斯坦福大学机器学习第三课“多变量线性回归“
- 机器学习(3)——多变量线性回归
- #include<algorithm>里的函数
- select()函数以及FD_ZERO、FD_SET、FD_CLR、FD_ISSET
- 正则表达式
- uva1329 合作网络
- 解决robotframwork测试报告源码中时区错误的方法
- Andrew Ng机器学习之三 多变量线性回归
- Linux下PHP环境搭建
- 11.ThinkPHP 3.1.2 连贯操作
- js中this的应用场景
- iOS 获取本地的坐标
- 阿里weex研究iOS(一)playground内容空白问题
- android 资源文件命名规则 drawable mipmap一样的
- 日期类——日期计算器
- 暑期第一弹<搜索> D - Fliptile(黑白棋翻转经典题型 DFS)