机器学习笔记之(四)用极大似然估计解释最小二乘
来源:互联网 发布:太祖军事能力知乎 编辑:程序博客网 时间:2024/06/06 00:55
最小二乘法
以最简单的一元线性模型来解释最小二乘法。什么是一元线性模型呢?监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面。[4]
对于一元线性回归模型, 假设从总体中获取了n组观察值(X1,Y1),(X2,Y2), …,(Xn,Yn)。对于平面中的这n个点,可以使用无数条曲线来拟合。要求样本回归函数尽可能好地拟合这组值。综合起来看,这条直线处于样本数据的中心位置最合理。 选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小。有以下三个标准可以选择:[4]
(1)用“残差和最小”确定直线位置是一个途径。但很快发现计算“残差和”存在相互抵消的问题。
(2)用“残差绝对值和最小”确定直线位置也是一个途径。但绝对值的计算比较麻烦。
(3)最小二乘法的原则是以“残差平方和最小”确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。这种方法对异常值非常敏感。
最常用的是普通最小二乘法( Ordinary Least Square,OLS):所选择的回归模型应该使所有观察值的残差平方和达到最小。(Q为残差平方和)- 即采用平方损失函数。
样本回归模型:
其中ei为样本(Xi,Yi)的误差。
平方损失函数:
则通过Q最小确定这条直线,即确定β0和β1,把它们看作是Q的函数,就变成了一个求极值的问题,可以通过求导数得到。求Q对两个待估参数的偏导数:
解得:
这就是最小二乘法的解法,就是求得平方损失函数的极值点。
用极大似然估计解释最小二乘
了解到最小二乘法是什么之后。我们现在来用极大似然估计去解释它。
假设现在有个多元线性函数
并且假设这个拟合函数与真实值
接着我们继续假设样本是独立同分布的,并且服从均值为0,方差为某定值
对于误差
上式可以改写为:
因为误差是独立的于是样本的联合概率等于每个样本各自概率的乘积,于是得到似然函数
于是就可以对这个似然函数求解了, 之前的文章提到过极大似然求解的方法。这里我们先看一看
到这里,我们发现前面一部分
最后的这个式子不就是最小二乘法的损失函数么。于是我们通过求解极大似然估计的方法从另一个角度解释了最小二乘法。
- 机器学习笔记之(四)用极大似然估计解释最小二乘
- 极大似然估计解释最小二乘
- 回归-用极大似然估计来解释最小二乘
- 概率统计与机器学习:独立同分布,极大似然估计,线性最小二乘回归
- 机器学习笔记(二)矩估计,极大似然估计
- 最大似然估计与最小二乘的解释
- 机器学习总结(四):极大似然估计与最小二乘法
- 极大似然与最小二乘
- 机器学习数学|极大似然估计
- 【机器学习】一元线性回归模型:最小二乘估计
- 机器学习: 最小二乘与贝叶斯估计
- 关于最大似然估计和最小二乘估计
- 最小二乘、极大似然、梯度下降法
- 【机器学习】聚类分析(二)——从极大似然估计到EM算法
- 二、极大似然估计
- 机器学习笔记(VII)线性模型(III)对数几率回归和极大似然估计
- 机器学习(一):极大似然估计
- 机器学习之概率与统计(三)- 极大似然估计
- 9.dubbo多协议与多注册中心
- MapReduce Tool 接口
- 用pytorch实现一个神经网络(一)
- KEIL中printf的使用
- mybatis逆向工程学习
- 机器学习笔记之(四)用极大似然估计解释最小二乘
- Font Awesome(二十)
- 完全使用Linux学习和工作
- 越来越难开的网约车
- document.form.action,表单分向提交,javascript提交表单
- 数据结构JavaScript描述(一)
- windows下安装reids扩展
- Sublime功能拓展及插件
- 数据结构实验之查找一:二叉排序树