NB算法解析,搜索引擎算法

来源:互联网 发布:1688如何上传到淘宝店 编辑:程序博客网 时间:2024/04/30 03:28

设每个数据样本用一个n维特征向量来描述n个属性的值,即:X={x1x2xn},假定有m个类,分别用C1, C2,…Cm表示。给定一个未知的数据样本X(即没有类标号),若朴素贝叶斯分类法将未知的样本X分配给类Ci,则一定是

P(Ci|X)>P(Cj|X) 1jmji 【P(Ci|X)表示文本X出现,分在Ci类的概率】

根据贝叶斯定理

由于P(X)对于所有类为常数,最大化后验概率P(Ci|X)可转化为最大化先验概率P(X|Ci)P(Ci)。如果训练数据集有许多属性和元组,计算P(X|Ci)的开销可能非常大,为此,通常假设各属性的取值互相独立,这样

先验概率P(x1|Ci)P(x2|Ci)P(xn|Ci)可以从训练数据集求得。

【通过训练集得到该分类每个关键字出现的概率,容易求得】

根据此方法,对一个未知类别的样本X,可以先分别计算出X属于每一个类别Ci的概率P(X|Ci)P(Ci),然后选择其中概率最大的类别作为其类别。

朴素贝叶斯算法成立的前提是各属性之间互相独立。当数据集满足这种独立性假设时,分类的准确度较高,否则可能较低。另外,该算法没有分类规则输出。

其他注意事项

1)训练集的要求高,训练集得到的每个关键字频率具有一般性,符合该分类的语言使用习惯。

2)关键字出现是否独立出现的假定是有问题的的,大量的同义词,连用词,导致是否出现独立的假定不能完全成立。

 
原创粉丝点击