PRML Charpter 2 Probability Distribution 2.3.5 Sequential estimation讲义摘要

来源:互联网 发布:淘宝偷图技巧 编辑:程序博客网 时间:2024/06/05 04:26

2.3.4和2.3.5节分别介绍了求解高斯分布的最大似然估计的两种方法, 2.3.4节是先给出似然函数,然后求似然函数最大值。2.3.5节介绍了一种序列化估计方法。

序列化估计的思想是根据已有数据得出一个估计,等有新的数据之后,再用新数据对上一步估计结果进行修正,得到新的估计值。 这种方法在一些在线应用,或数据比较大的情况下,用批处理的方法不能处理完所有数据情况下,经常使用。

这里介绍了一种通用方法,Robbins-Monoro算法。 该算法主要步骤:

1)给出回归函数 f(u)=E[z|u]. 其中限定f(u)为非降函数;

2)根据迭代公式(2.129), 每次读入一个新数据,把这个新数据代入以后古籍中,得到一个修正量,不断迭代,逐步逼近函数f(u)=0的u值;

3)其中迭代公式中aN称为修正系数,需满足(2.130)(2.131)和(2.132)三个条件;

    Robbins-Monoro算法思想就是利用当前函数的取值去推断函数的零点的位置。令f(U*)=0, u表示当前估计值,由函数是非降的, 当f(u)>0时, 则u>U*, 此时应向左修正, 当f(u)<0时, 则 u<U*, 此时应向右修正。为了不让一次左修正和一次右修正又回到原点,每次修正步长(修正系数aN)应该有所减少,即第一个条件,公式(2.130)。剩下两个条件要求既不能递减太快,否则在到达0点之前就收敛了,也不能递减太慢,否则虽然收敛,但是时间会很慢。

随后介绍了根据Robbins-Monoro算法步骤,来估计高斯分布的均值。

1)给出回归函数,就是要估计零点的函数,我们要求的是使得似然函数最大的值,既使得似然函数的导数等于0的值,因此步骤(1)中f(u)等于高斯分布似然函数的导数,对应公式2.133

2)求出似然函数的导数,得到z, 代入迭代公式2.129;

3)令修正系数an=variance / N;

图2.11 解释了用Robbins Monoro算法估计高斯均值的步骤;(注意,图中u和uml 标记错误,可以参照PRML勘误表)


0 0