机器学习经典算法之-最小二乘法
来源:互联网 发布:snmp 监控软件 编辑:程序博客网 时间:2024/05/28 20:19
原文网址:http://www.cnblogs.com/iamccme/archive/2013/05/15/3080737.html
1、最小二乘法
我们以最简单的一元线性模型来解释最小二乘法。什么是一元线性模型呢? 监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面...
对于一元线性回归模型, 假设从总体中获取了n组观察值(X1,Y1),(X2,Y2), …,(Xn,Yn)。对于平面中的这n个点,可以使用无数条曲线来拟合。要求样本回归函数尽可能好地拟合这组值。综合起来看,这条直线处于样本数据的中心位置最合理。 选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小。有以下三个标准可以选择:
(1)用“残差和最小”确定直线位置是一个途径。但很快发现计算“残差和”存在相互抵消的问题。
(2)用“残差绝对值和最小”确定直线位置也是一个途径。但绝对值的计算比较麻烦。
(3)最小二乘法的原则是以“残差平方和最小”确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。这种方法对异常值非常敏感。
最常用的是普通最小二乘法( Ordinary Least Square,OLS):所选择的回归模型应该使所有观察值的残差平方和达到最小。(Q为残差平方和)- 即采用平方损失函数。
样本回归模型:
其中ei为样本(Xi, Yi)的误差
平方损失函数:
则通过Q最小确定这条直线,即确定,以为变量,把它们看作是Q的函数,就变成了一个求极值的问题,可以通过求导数得到。求Q对两个待估参数的偏导数:
根据数学知识我们知道,函数的极值点为偏导为0的点。
解得:
这就是最小二乘法的解法,就是求得平方损失函数的极值点。
2. C++实现代码
- 机器学习经典算法之-----最小二乘法
- 机器学习经典算法之-----最小二乘法
- 机器学习经典算法之-----最小二乘法
- 机器学习经典算法之--最小二乘法
- 机器学习经典算法之-----最小二乘法
- 机器学习经典算法之-最小二乘法
- 机器学习经典算法之-----最小二乘法
- 机器学习经典算法之-----最小二乘法
- 机器学习之最小二乘法
- 机器学习之最小二乘法
- 机器学习之最小二乘法
- 机器学习系列之最小二乘法
- 数学之路(3)-机器学习(3)-机器学习算法-最小二乘法与回归[1]
- 数学之路(3)-机器学习(3)-机器学习算法-最小二乘法与回归[2]
- 数学之路(3)-机器学习(3)-机器学习算法-最小二乘法与回归[3]
- 数学之路(3)-机器学习(3)-机器学习算法-最小二乘法与回归[4]
- 数学之路(3)-机器学习(3)-机器学习算法-最小二乘法与回归[5]
- -机器学习算法-最小二乘法与回归[4]
- POJ 3253 Fence Repair(贪心)
- bzoj1026: [SCOI2009]windy数
- 前端一些可爱的小插件之Parallax.js &jqueryCountup.js
- AndroidStudio 使用Release签名进行Debug 多渠道打包 混淆 全局配置
- Android如何使用以及配置KotLin
- 机器学习经典算法之-最小二乘法
- PHP实现Floyd算法
- 获取APK 的启动Activity名称
- Android录像时添加时间水印
- 修改Linux内核启动logo
- WIFI系统架构
- SharedPreferences应用之首次加载引导界面
- Win10+VS2015+OpenCv3.2.0+OpenCv_contrib3.2.0+CMAKE3.8.1编译OpenCv源代码
- vm虚拟机安装的centos6.8系统下将php5.3.3升级到5.6.3