机器学习(2)——单变量线性回归
来源:互联网 发布:ajax post提交json 编辑:程序博客网 时间:2024/05/20 00:48
【Linear Regression with One Variable】
1. 单变量线性回归模型
单变量线性回归是通过给出的样本变量与输出,预测一个变量的对应输出,属于监督学习。单变量与预测输出之间的函数关系的一般化定义如下:
我们可以看出,对于不同的和对,会有不同的预测输出。
例如给定样本如下:
我们随意猜测=2,=2,那么则有
当x=1时,预测输出为2+2*1=4,与真实输出之间的误差为3。为了衡量预测的正确性,下面引入Cost Function(代价函数)。
2. 代价函数
定义代价函数如下:
即为均方误差(Mean squared error)的二分之一。当该代价函数值越小,预测结果越好,也就是说线性回归函数更好地拟合数据。
那么我们的目标就是找到合适的、,使得代价函数最小。为了解决这个问题,我们使用梯度下降(Gradient Descent)法。
3. 梯度下降法找最佳、
,其中α为学习率(自已定义的,不能太大,也不能太小),代价函数分别对、求导代入上式可得:
注意:、的值是同步更新的。
当、的值不再改变时或者迭代次数达到要求时,停止迭代,此时代价函数值最小,即找到目前最适合的线性回归函数
0 0
- 机器学习(2)——单变量线性回归
- 机器学习入门——单变量线性回归
- 机器学习之——单变量线性回归
- 机器学习之——单变量线性回归
- COURSERA机器学习笔记——单变量线性回归
- 机器学习之——单变量线性回归
- 机器学习(一)——单变量线性回归
- 机器学习笔记(二) 单变量线性回归
- Stanford机器学习课程笔记——单变量线性回归和梯度下降法
- 【机器学习】Andrew Ng——02单变量线性回归
- Standford 机器学习—第一讲 Linear Regression with one variable(单变量线性回归)
- 机器学习初览2(单变量线性回归与代价函数)
- 机器学习实战:单变量线性回归的实现
- 机器学习-1 概念和单变量线性回归
- 机器学习实战:单变量线性回归的实现
- Coursera2014 机器学习第一周 单变量线性回归
- 斯坦福大学机器学习第二课 “单变量线性回归”
- 机器学习:单变量线性回归及梯度下降
- 重写description方法
- openstack搭建中的虚拟机网卡配置IP各种问题
- android当蓝牙设备连接或者断开时候的广播事件处理
- Dancing links
- 将一个链表后K个结点移到链表头
- 机器学习(2)——单变量线性回归
- 你不知道的七个冥王星冷知识
- 程序设计项目实训:银行储存系统
- 几种简单的滤波方式(未完)
- Linux学习笔记1-20150715
- 学习python之走进Scrapy
- iphone 开发对象方法、重写description方法
- ffmpeg的tutorial中文版学习笔记(一)
- webbench