第二周--线性回归问题
来源:互联网 发布:扫描仪专用软件 京瓷 编辑:程序博客网 时间:2024/05/15 17:34
两种方法:
1.梯度下降法
优点:即使特征变量的维度n很大,该方法依然很有效
缺点:1)需要选择学习速率α
2)需要多次迭代
2.正规方程法
该方法可以一次性求解参数Θ
优点:1)不需要选择α
2)不用多次迭代,一次求解
3)正规方程法不需要归一化处理
缺点:逆矩阵的计算量比较大,尤其当特征变量的维度n很大时;计算逆矩阵的运算量大概是矩阵维度的3次方。
总结:当特征变量维度n较大时(n>=10000),选择梯度下降法;当n值较小时(n<10000),选择正规方程法求解Θ。
备注:求解模型代价函数J(Θ)的最小值方法,本文分析主要针对线性回归模型。对于线性回归模型而言,在特征变量维度不是很大的情况下(n<10000),使用正规方程求解Θ是一个很快捷的方法;但是对于分类问题, 比如逻辑回归这种更加复杂的模型,根本就不能使用正规方程法,而只能使用梯度下降法求救Θ。所以,梯度下降法用的更广泛一些。
阅读全文
0 0
- 第二周--线性回归问题
- Coursera 第二周第二节多特征的线性回归问题
- 回归问题之线性回归
- 线性回归问题
- 线性回归问题
- Coursera2014 机器学习第二周 多变量线性回归
- Stanford机器学习 第二周:多变量线性回归
- 斯坦福机器学习第二周线性回归、特征值标准
- 斯坦福大学机器学习笔记--第二周(1.多元线性回归及多元线性回归的梯度下降)
- 回归问题之线性回归II
- 机器学习第二讲 线性回归
- 【ML--02】第二课 线性回归
- 线性回归-1-问题引入
- Tensorflow学习:线性回归问题
- 线性回归的相关问题
- 第二周-Coursera/Stanford机器学习课程学习笔记-多变量线性回归
- 跟着Andrew Ng挑战Machine Learning(第二周):多元线性回归+特征缩放
- 斯坦福机器学习Coursera课程:第二周作业--一元和多元线性回归
- Java自定义框架初步(一)
- 链表的删除、插入、反向
- 给自己打点鸡血(装B文章)
- WlMAP:突破内网端口转发映射工具
- Java中getResourceAsStream的用法
- 第二周--线性回归问题
- Android studio-解决i5处理器仍cpu占用100%
- opencv--颜色物体识别跟踪
- 买苹果---动态规划
- Node.js是如何解决服务器高性能瓶颈问题的
- 2017ACM/ICPC广西邀请赛-重现赛
- 灰度共生矩阵 matlab里的 graycomatrix函数
- 关于Hashtable和HashMap的区别 -- Java 基础
- 76.窗口滑动最小子串