机器学习笔记(六)——朴素贝叶斯法的参数估计

来源:互联网 发布:软件测试标准规范 编辑:程序博客网 时间:2024/06/03 20:55

一、极大似然估计

在上一笔记中,经过推导,得到了朴素贝叶斯分类器的表示形式:

y=argmaxckP(Y=ck)jP(X(j)=x(j)|Y=ck)(1)

也就是说,朴素贝叶斯方法的学习是对概率P(Y=ck)P(X(j)=x(j)|Y=ck)的估计。故可以用极大似然估计法估计上述先验概率和条件概率。


先验概率P(Y=ck)的极大似然估计为:

P(Y=ck)=Ni=1I(yi=ck)N,k=1,2,,K

条件概率P(X(j)=ajl|Y=ck)的极大似然估计是:

P(X(j)=ajl|Y=ck)=Ni=1I(x(j)i=ajl,yi=ck)Ni=1I(yi=ck)

其中,x(j)i是第i个样本的第j个属性;ajl是第j个属性可能取l的值;I是指示函数。


将上述两个极大似然估计的值求出后,根据(1)式确定输入实例的分类。

二、贝叶斯估计

由(1)式可以得知,用极大似然估计可能导致估计出来的概率为0的情况,这会影响后验概率的计算结果,使得后验概率为0,解决这一问题的方法是采用贝叶斯估计。


先验概率Pλ(Y=ck)的贝叶斯估计是:

P(Y=ck)=Ni=1I(yi=ck)+λN+Kλ

条件概率Pλ(X(j)=ajl|Y=ck)的极大似然估计是:

Pλ(X(j)=ajl|Y=ck)=Ni=1I(x(j)i=ajl,yi=ck)+λNi=1I(yi=ck)+Sjλ

上式中,λ0,等价于在随机变量各个取值的频数上加上一个正数λ>0。当λ=0时就是极大似然估计。取λ=1称为拉普拉斯平滑(Laplace smoothing)。

显然对于任何l=1,2,,Sj;k=1,2,,K有:

Pλ(X(j)=ajl|Y=ck)>0

l=1SjP(X(j)=ajl|Y=ck)=1

总结

朴素贝叶斯方法的原理和重点内容到目前用了三节内容就重点学习完了,接下来会进一步学习跟贝叶斯相关的贝叶斯网络的内容。

0 0
原创粉丝点击