监督学习1
来源:互联网 发布:js replacewith 编辑:程序博客网 时间:2024/06/05 02:38
监督学习:给定输入值x和输出值y,学习映射关系f. (一个样本包含一个输入值和一个输出值,训练集包含n个训练样本)
回归问题:映射关系f的输出值是连续的;
分类问题:映射关系f的输出值是离散的;
线性回归:
通常输入值x是一个向量,也就是有多个维度,线性回归的特点是映射函数是对输入的多个维度的值求加权和。
hθ(x) = θ0 + θ1x1 + θ2x2
代价函数:
为了评价一个线性回归是否比另一个更好,采用代价函数来判断。
LMS代价函数:
对每一对样本,将模型的预测值与样本的输出值做差,再取平方和,最后将所有平方和相加后除以2.
模型训练:
有了代价函数,可以采用基本的数学方法来解这个问题——梯度下降算法。
梯度下降算法
batch gradient descent: 更新一次theta参数需要所有样本;
stochastic gradient descent:
更新一次theata只需要一个样本(按随机顺序选取)
为什么要采用LMS作为代价函数?
回归问题:映射关系f的输出值是连续的;
分类问题:映射关系f的输出值是离散的;
线性回归:
通常输入值x是一个向量,也就是有多个维度,线性回归的特点是映射函数是对输入的多个维度的值求加权和。
hθ(x) = θ0 + θ1x1 + θ2x2
代价函数:
为了评价一个线性回归是否比另一个更好,采用代价函数来判断。
LMS代价函数:
对每一对样本,将模型的预测值与样本的输出值做差,再取平方和,最后将所有平方和相加后除以2.
模型训练:
有了代价函数,可以采用基本的数学方法来解这个问题——梯度下降算法。
梯度下降算法
batch gradient descent: 更新一次theta参数需要所有样本;
stochastic gradient descent:
更新一次theata只需要一个样本(按随机顺序选取)
为什么要采用LMS作为代价函数?
概率论观点:假设预测值与真实样本值之间的误差是IID高斯分布,最后可以推导出,最大似然估计得出的结果就是LMS算法优化后得出的解。
- 监督学习1
- 【机器学习】监督学习 1
- 机器学习笔记1---监督学习和无监督学习
- 机器学习(1)监督学习和无监督学习
- Machine Learning 1 (监督学习与非监督学习)
- 机器学习(1):监督/非监督学习
- 监督学习
- 监督学习
- 监督学习
- 监督学习&非监督学习
- 监督学习?无监督学习?
- 监督学习&无监督学习
- 机器学习入门(1)--监督式学习
- 机器学习-(1):监督学习
- [UFLDL-1] 监督学习和优化
- tensorflow1.1/非监督学习autoencoder1
- scikit-learn 实战之监督学习 1
- 机器学习-1 初步认识机器学习、监督学习和非监督学习
- hdu1060(计算n^n最高位的数字)
- poj1078-Gizilch
- 写一个“标准”宏MIN,这个宏输入两个参数并返回较小的一个
- C++虚函数表解析
- 用线性同余法生成“伪”随机数
- 监督学习1
- 2013
- JQuery设置和去除disabled属性的5种方法
- UITabBarController Class Reference
- matlab imshow函数的具体解释
- Android 开发之activity之间传递数据
- 机房收费系统之观察者模式
- 数组a[i++]=j 与 a[i]++ 的区别
- 面向51单片机的Keil uVision4基本数据类型简介