机器学习笔记之(四)用极大似然估计解释最小二乘

来源:互联网 发布:太祖军事能力知乎 编辑:程序博客网 时间:2024/06/06 00:55

最小二乘法

以最简单的一元线性模型来解释最小二乘法。什么是一元线性模型呢?监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面。[4]
对于一元线性回归模型, 假设从总体中获取了n组观察值(X1,Y1),(X2,Y2), …,(Xn,Yn)。对于平面中的这n个点,可以使用无数条曲线来拟合。要求样本回归函数尽可能好地拟合这组值。综合起来看,这条直线处于样本数据的中心位置最合理。 选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小。有以下三个标准可以选择:[4]
(1)用“残差和最小”确定直线位置是一个途径。但很快发现计算“残差和”存在相互抵消的问题。
(2)用“残差绝对值和最小”确定直线位置也是一个途径。但绝对值的计算比较麻烦。
(3)最小二乘法的原则是以“残差平方和最小”确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。这种方法对异常值非常敏感。
最常用的是普通最小二乘法( Ordinary Least Square,OLS):所选择的回归模型应该使所有观察值的残差平方和达到最小。(Q为残差平方和)- 即采用平方损失函数。
样本回归模型:

Yi=β^0+β^1Xi+eiei=Yi(β^0+β^1Xi)

其中ei为样本(Xi,Yi)的误差。
平方损失函数:

Q=i=1ne2i=i=1n(Yi(β^0+β^1Xi))2

则通过Q最小确定这条直线,即确定β0和β1,把它们看作是Q的函数,就变成了一个求极值的问题,可以通过求导数得到。求Q对两个待估参数的偏导数:
Qβ0=2i=1n(Yi(β^0+β^1Xi)(1)=0

Qβ1=2i=1n(Yi(β^0+β^1Xi)(Xi)=0

解得:

β0=nXiYiXiYinX2i(Xi)2

β1=X2iYiXiXiYinX2i(Xi)2

这就是最小二乘法的解法,就是求得平方损失函数的极值点。

用极大似然估计解释最小二乘

了解到最小二乘法是什么之后。我们现在来用极大似然估计去解释它。

假设现在有个多元线性函数

hθ(x)=i=0nθixi=θTX

并且假设这个拟合函数与真实值y之间存在一个误差ϵ,于是得到下面真实值y与拟合函数hθ(x)以及误差ϵ之间的关系式:
y(i)=θTX(i)+ϵ(i)

接着我们继续假设样本是独立同分布的,并且服从均值为0,方差为某定值σ2的高斯分布,于是每个样本的误差也服从该高斯分布(原因是 中心极限定理(简单的说,就是现实中的随机变量往往近似服从均值为0 方差为1的高斯分布))。

对于误差ϵ服从高斯分布有:

p(ϵ(i))=12πσexp((ϵ(i))22σ2)

上式可以改写为:
p(y(i)|x(i);θ)=12πσexp(((y(i)θTX(i)))22σ2)

因为误差是独立的于是样本的联合概率等于每个样本各自概率的乘积,于是得到似然函数L(θ):

L(θ)=i=1np(y(i)|x(i);θ)=i=1n12πσexp(((y(i)θTX(i)))22σ2)

于是就可以对这个似然函数求解了, 之前的文章提到过极大似然求解的方法。这里我们先看一看L(θ)取对数得到什么?

l(θ)=logL(θ)=logi=1n12πσexp(((y(i)θTX(i)))22σ2)=i=1nlog12πσexp(((y(i)θTX(i)))22σ2)=nlog12πσ1σ212i=1n(y(i)θTX(i))2

到这里,我们发现前面一部分nlog12πσ是个定值,且σ也是定值。我们把这些去掉之后得到:
J(θ)=12i=1n(y(i)θTX(i))2=12i=1n(hθ(x)y(i))2

最后的这个式子不就是最小二乘法的损失函数么。于是我们通过求解极大似然估计的方法从另一个角度解释了最小二乘法。

原创粉丝点击