最大似然估计方法

来源:互联网 发布:mac 隐藏文件夹显示 编辑:程序博客网 时间:2024/04/30 09:56

在实际问题中,我们通常得不到问题的概率结构的全部知识,我们只有利用训练样本来 估计 问题所涉及的先验概率和条件密度函数,并把这些估计结果当作问题真正的先验概率和条件密度函数,然后再设计分类器。已知概率密度函数的形式,估计其参数的这个过程即参数估计(Parameter Estimation)。常用的估计方法有 最大似然估计、最大后验估计、贝叶斯估计等。

若设x=(x1,,xn)是来自概率密度函数p(x|θ)的独立采样,则其乘积

p(x|θ)=i=1np(xi|θ)

有两个解释:当参数θ给定时,p(x|θ)是样本x联合密度函数;当样本x的观察值给定时,p(x|θ)是未知参数θ的函数,称为样本的似然函数,常记作L(θ)

定义 对数似然函数 为:

(θ)=lnL(θ)=i=1nlnp(xi|θ)

求解似然函数取得最大值时的参数θ的过程即最大似然估计(MLE, maximum-likelihood estimation):

θ^=argmaxθ(θ)

具体的求解办法是对参数θ求导,导数为0时,即似然函数的极值点,可求得待估计的参数。

最大似然估计、最小二乘法和正态分布均由高斯发展而来,它解决了求解误差的概率密度分布问题,是19世纪统计学最重要的成就。下面依葫芦画瓢的简单贯通一下它们之间的联系。

正态分布的最大似然估计

假定样本服从正态分布,参数向量θ是正态分布的均值和方差θ=(μ,σ2),其中θ1=μ,θ2=σ2,可得单个样本的对数似然函数:

p(xi|θ)(xi|θ)=12πθ2e(xiθ1)22θ2=12ln2πθ212θ2(xiθ1)2

对向量θ求导,即对参数各自求偏导数

`$$
\nabla_{\theta}\ell =
\begin{bmatrix}
\frac{\partial \ell(x_i | \theta)}{\partial \theta_1} \
\frac{\partial \ell(x_i | \theta)}{\partial \theta_2}

[xiθ1θ2 12θ2+(xiθ1)22θ22]

$$`

当导数等于0的时候,即得到全体样本的对数似然函数的极值条件,求解如下方程组可得参数θ

i=1n(xiθ^1)θ^2=0i=1n1θ^2+i=1n(xiθ^1)2θ^22=0

其中,θ^1θ^2分别是对θ1θ2的最大似然估计。把θ^1θ^2分别用μ^σ^2替代,就可以得到正态分布的均值和方差的最大似然估计结果:

μ^σ^2=1ni=1nxi=1ni=1n(xiμ^)2

可以看出参数均值的最大似然估计就是样本均值,参数方差的最大似然估计就是样本方差。

误差平方和最小假设

在特定前提下,任一学习算法如果使输出的假设预测和训练数据之间的误差平方最小化,它将输出极大似然假设

平方损失函数(quadratic loss function)

L(Y,f(X))=(Yf(X))2

假定学习器L工作在输入空间X、输出空间Y和假设空间H上,假设H为是XY的映射函数 f:XY。给定n个训练样本的集合,每个样本的输出值被随机噪声干扰,即每个训练样本可表示为 (xi,yi),其中yi=f(xi)+ei为观察到的输出值,ei是代表噪声的随机变量。假定 ei是独立抽取且服从零均值的正态分布,即样本输出值yi服从均值f(xi)方差σ2的正态分布。要得到极大似然假设 yML即对数似然函数 (x|μ,σ2)取得极大值:

yML=argmaxyY(x|μ,σ2)=argmaxyYi=1np(xi|μ,σ2)=argmaxyYi=1n12πσ2exp(12σ2(yiμ)2)=argmaxyYi=1n12πσ2exp(12σ2(yif(xi))2)=argmaxyYi=1n{ln12πσ212σ2(yif(xi))2}=argmaxyYi=1n12σ2(yif(xi))2=argminyYi=1n12σ2(yif(xi))2=argminyYi=1n(yif(xi))2

证明了极大似然假设 yML 是使训练值 yi 和假设预测值 f(xi) 之间误差平方和最小的那个。也可以看出最大化似然函数最终等价于最小化平方损失函数。

也可以参考 第一章第12~13页的推导。

参考

  • 模式分类 Duda 第三章 最大似然估计和贝叶斯参数估计
  • 机器学习 Mitchell T.M. 第六章 贝叶斯学习
  • PRML 3.1.1 Maximum likelihood and least squares
  • MLAPP 7.3 Maximum likelihood estimation (least squares)

0 0
原创粉丝点击