机器学习入门系列二(关键词:多变量(非)线性回归,批处理,特征缩放,正规方程)
来源:互联网 发布:seed相似的软件 编辑:程序博客网 时间:2024/05/17 06:57
一、多变量的线性回归
在#机器学习系列一#中,我们讨论了单变量的线性回归,而多变量的线性回归与单变量类似,一致内容就不再赘述了。首先我们来看一个例子,下表是波特兰的房子价格,针对不同的房屋面积和卧室间数。
在这里我们先规定一下符号记法:
在本例中,训练样本个数
同单变量线性回归一样,我们定义一个代价函数
经过严格推导可得
二、批处理
为了可以用矩阵进行批处理,我们把
因此式(4)可以写成如下形式
这样的话,输入变量
此时式(2),(6)用matlab编程语言如下,非常简洁明了:
J = 1/(2*m)*(X*theta-y)'*(X*theta-y);theta = theta-alpha/m*(X'*(X*theta-y));
三、特征缩放
由于这是多变量线性回归,还有一个比较棘手的问题,即不同的特征取值范围不一样。在本例中特征1取值范围0~3000,而特征2取值范围0~5,差距悬殊。在处理数据前若没有做特征缩放也就是没有做过标准化,目标函数则无法适当的运作。举例来说,利用两点间的距离计算两点的差异对数据进行分类,若其中一个特征具有非常广的范围,那两点间的差异就会被该特征左右,因此,所有的特征都该被标准化,这样才能大略的使各特征依比例影响距离。在本例中若不进行特征缩放,将会耗费很长很长的时间找到最优解,极端情况下甚至因为各种特征差距太大甚至无法找到。不单单是线性回归,很多情况下我们都要对数据进行预处理即特征缩放,可以说应用范围非常广。
常见的归一化方法有两种:
1. min-max标准化
min-max标准化也称为离差标准化,是利用样本数据的最大值和最小值对原始数据的线性变换。经过处理使结果值映射到[0 - 1]之间,转换函数如下:
2. Z-score标准化
Z-score标准化利用原始数据的均值和标准差进行数据的标准化。经过处理的数据符合标准正态分布,即均值为0,标准差为1,转化函数为如下:
本例中,我们采用Z-score标准化,以第一个特征(房屋面积)为例
经过标准化,梯度下降法迭代,我们得到
当房子面积为1650
四、正规方程
为了求得最优解
- 正则方程优点
-代码简洁易懂
-不用选择步长α ,不用进行迭代
-不用进行特征缩放,即不会梯度下降法那样很难得到最优解 - 正则方程缺点
-当输入变量特征较多时,XTX 太大,进行求逆运算代价太高,此时梯度下降法是一个很好地选择(一般而言当n>104 时我们可以着手考虑采取梯度下降法)。
五、多变量非线性回归
若我们要进行非线性回归,所得结果是个圆,即
- 机器学习入门系列二(关键词:多变量(非)线性回归,批处理,特征缩放,正规方程
- 机器学习入门系列二(关键词:多变量(非)线性回归,批处理,特征缩放,正规方程)
- 教女友学习机器学习0X01——多变量线性回归、特征缩放与多项式回归
- 【机器学习入门】Andrew NG《Machine Learning》课程笔记之三:多元线性回归的梯度下降、特征缩放和正规方程
- 机器学习入门(12)--线性回归之正规方程
- 机器学习入门——多变量线性回归
- 机器学习(二)——多变量线性回归
- 机器学习-线性回归-正规方程
- 机器学习:多变量线性回归
- Python学习(机器学习_多变量线性回归)
- 机器学习笔记(四) 多变量线性回归
- Andrew Ng机器学习笔记(二):多变量线性回归
- 斯坦福大学机器学习课程二线性回归编程作业3(多变量)
- 斯坦福大学机器学习课程线性回归编程作业二(多变量2)
- 多变量线性回归(二)
- 机器学习02线性回归、多项式回归、正规方程
- 深度学习(多变量线性回归)
- Stanford机器学习---第二周.特征缩放、正规方程
- iOS之实现倒计时功能
- 程序包管理yum&&编译篇
- iOS多线程开发其实很简单
- 孢子框架-互联网金融平台微服务架构设计
- 09Java语法回顾map集合
- 机器学习入门系列二(关键词:多变量(非)线性回归,批处理,特征缩放,正规方程)
- 惯性导航之Runge-Kunta法更新四元数(六)
- spring validate group分类校验
- 2015总结
- 首日
- JavaScript 浮点数及运算精度调整总结
- FM音乐播放器 基于豆瓣 api,swift,alamofire,sqlite.swift 等
- 文章标题
- 麦肯锡工作方法学习笔记(一)