Andrew Ng机器学习笔记(二)
来源:互联网 发布:淘宝店铺开店资料 编辑:程序博客网 时间:2024/06/06 18:29
4.多元线性回归
对于多元回归,道理同之前讲述的一样,要引入线性代数表达。此时,可视化描述已经不可能了。现在的假设函数变为:
为了方便数学上的表示,引入
那么可得到假设函数的向量表示:
相应的梯度下降算法,参考以前的进行修正即可,最终的表达式反而更简洁:
4.1一些技巧
特征缩放:将所有的特征的数量级都在一个差不多的范围之内, 以加快梯度下降的速度.
如下图所示,经过特征缩放,寻找的梯度将会更快地到达目的地。特征缩放之后,针对的是偏导数,改变的是“探寻的方向”。
特征缩放的两个处理方式:
还有一个特征处理的方法就是均值归一化(Mean normalization):这里的
确认算法运行的正确与否:画出代价函数
如果图形变化趋势如下,则说明是正确的。还有一种叫自动收敛测试的方法, 即每次迭代之后观察
注意:
如果足够
α 小, 那么Jθ 在每次迭代之后都会减小。但是如果太小, 梯度下降会进行的非常缓慢.如果学习率 α 过大,每次迭代可能不会减小代价函数,可能会越过局部最小值导致无法收敛
可以使用下面几个值进行逐个尝试。(吴老师介绍自己的经验在)
特征选择与多项式回归:
比如在房价预测问题,选取房屋的长和宽作为变量,我们有如下假设函数:
但是,如果我们考虑到真正决定房屋价格的是面积,那么我们可以重新选择我们的特征
通过这种特征的选择, 我们可能得到一个更好的模型。
有时,观察数据集发现使用多项式拟合更好,比如二次函数三次函数等,
4.2正规方程
到目前为止,我们都在使用梯度下降算法,但是对于某些线性回归问题,可以考虑正规方程方法。我们知道,我们的目的是要使得代价函数最小,而代价函数是关于未知参数
具体计算时候,使用的如下式子:
两者 的比较及使用范围:
- Andrew Ng 机器学习笔记(二)
- Andrew Ng机器学习笔记(二)
- Andrew Ng机器学习(ML)入门学习笔记(二)
- Andrew NG 机器学习课程笔记(二)
- Andrew Ng 机器学习笔记(一)
- Andrew Ng 机器学习笔记(三)
- Andrew Ng 机器学习笔记(四)
- Andrew Ng 机器学习笔记(五)
- Andrew Ng 机器学习笔记(六)
- Andrew Ng 机器学习笔记(七)
- Andrew Ng 机器学习笔记(八)
- Andrew Ng机器学习笔记(一)
- Andrew Ng机器学习笔记(三)
- andrew ng机器学习笔记
- Andrew Ng机器学习入门学习笔记(四)之神经网络(二)
- 《机器学习》(Machine Learning)——Andrew Ng 斯坦福大学公开课学习笔记(二)
- 监督学习之Logistic regression——Andrew Ng机器学习笔记(二)
- Andrew Ng机器学习笔记+Weka相关算法实现(二)生成学习/朴素贝叶斯
- Android事件分发机制详解:史上最全面、最易懂
- Ubuntu搭建SSH服务器
- java--BufferedReader
- .NET(C#)连接各类数据库代码-集锦
- android 入门笔记
- Andrew Ng机器学习笔记(二)
- 一个可以锚点定位的 ImageView(根据像素点)
- Linux wc命令
- Java基础——面向对象
- 浅析自动装箱、自动拆箱
- CHttpFile::QueryInfo的BUG
- 词向量源码解析:(2.2)word2vec源码解析之word2phrase
- 怎样使用ADO.NET连接数据库
- Spring 学习笔记02