week2 多变量线性回归
来源:互联网 发布:淘宝上比较好的男鞋店 编辑:程序博客网 时间:2024/05/22 08:14
3 多变量线性回归
3.1 多维特性 multiple features
- 至今为止,我们讨论的房价回归模型只有一个变量,面积,但实际情况往往不是如此,应有很多变量,例如卧室个数,几层等,我们把这些新的特征用
x1,x2,...xn 表示房间大小210414161534852卧室个数5332几层1221房龄45403036价格460232315178
加入新的特征以后,我们用下列新的标识:变量名nxixij变量代表意思特征数量第i个训练实例,包括多个特征,是一个向量,不再是一个数第i个训练实例的第j个特征,在特征矩阵中由第i行第j列标识
此时,假设h表示为:hθ(x)=θ0x0+θ1x1+θ2x2+...+θnxn
其中x0 为1,是人为加入的,使式子能够统一
可以用矩阵表示来简化结果:hθ(x)=θTX
后面的θ和X 都是矩阵,θ 是1×(n+1) ,X是m×(n+1) (xi 是一维,X不是一维的)
3.2 多变量梯度下降
此时的代价函数J可以表示为:
同单变量的算法,此时的算法为:
循环直到收敛:
3.3 特征缩放 feature scaling
- 当我们面对多维特征的时候,如果每个特征的单位尺度相差很大,那我们的算法也不能很好的收敛:
这时候,解决的方法很简单,将每个特征的尺度缩小到-1至1之间,既:
3.4 学习率 learning rate
同单变量线性回归,我们要确保代价函数在一直减少,如果选取的
4 多项式回归与常规解方程
4.1 多项式回归
线性回归并不适用所有的数据,例如有些数据需要的是曲线,
通常我们需要根据数据的特点选择回归方程,可能到二次方就结束,也可能需要开方
或是
4.2 常规解方程
有时候,可以不通过梯度下降来求得,可以根据解下面的方程来得到:
假设我们的训练集特征矩阵为X(包括
e.g
例如我们有:
用常规解方法求解:
对于那些不可逆的矩阵,或者n值过大的时候,正规解方程的方法不可用。
下表列举了梯度下降和正规解方程的比较
梯度下降需要选择学习率α需要多次迭代特征数量n大时也能适用适用于各种类型模型正规解方程不需要选择一次可以算出n较大时计算时间太长只适用于线性模型
阅读全文
0 0
- week2 多变量线性回归
- coursera ML笔记 ----week2 多变量的线性回归
- Andrew NG 机器学习 笔记-week2-多变量线性回归
- Andrew Ng机器学习笔记week2 多变量线性回归
- 多变量线性回归
- 多变量线性回归
- Coursera机器学习 week2 多变量线性回归 编程作业代码
- 多变量线性回归 原理
- Stanford公开课机器学习---week2-1.多变量线性回归 (Linear Regression with multiple variable)
- 多变量线性回归的解析解
- 多变量线性回归程序实现
- 多变量线性回归 Multivariate Linear Regression
- C++实现线性回归(多变量)
- 机器学习:多变量线性回归
- 深度学习(多变量线性回归)
- Octave实现多变量线性回归
- 多变量线性回归(一)
- 多变量线性回归(二)
- 添加好友
- 分治法之Gray问题
- 0710编程之美二进制扩展问题
- hdu1041 Computer Transformation 大数找规律
- JVM内存模型
- week2 多变量线性回归
- Servlet学习笔记 -- day03 servlet三大域对象总结
- PromiseKit 封装异步Api
- Oracle-1
- 安全篇-AES/RSA加密机制
- 分布式爬虫架构设计
- 计算机网络读书笔记——数据链路层(1)
- Cesium学习笔记(六):几何和外观(Geometry and Appearances)
- Python pip包管理器