LDA的评价标准

来源:互联网 发布:js中==和===的区别 编辑:程序博客网 时间:2024/04/29 06:28

最近半个月一直纠结与LDA中,拔也拔不出来,有很多的东西我自己是不太理解的,现在还是重新理一下思路,然后再重新来做吧。
对于评价聚类算法的好坏的评价指标:
第一是利用有分类标签的测试数据集,然后判断聚类的结果与真实的结果之间的差距。
第二是利用无分类标签的测试数据集,用训练出来的模型来跑测试数据集,然后计算在测试数据集上,所有的token似然值几何平均数的倒数,也即perplexity指标,这个指标可以直观理解为用于生成测试数据集的词表大小的期望值。
这里写图片描述
熵,perplexity是一种信息理论的测量方法,x的perplexity是基于x的熵的能量来定义的。对于一个模型而言,perplexity越小,说明模型越好。具体在wiki上有三种定义方式,参考的链接如下:
http://blog.csdn.net/pipisorry/article/details/42460023
对于LDA主题模型中的perplexity,只是一个粗略的评价标准,用于在语料库中得到合数数目的主题。
这里写图片描述
其中,M是测试语料库中的文本的数量,Nd是第d篇文本的大小(即单词数),P(Wd)代表文本的概率。
文本的概率的计算方法:由词袋模型可知,一篇文本的概率为其所有词的的概率的成绩,而每个词的概率由全概率公式(主题的全概率公式得到)。
LDA模型的perplexity就是exp^{ - (∑log(p(w))) / (N) },∑log(p(w))是对所有单词取log(直接相乘一般都转化成指数和对数的计算形式),N的测试集的单词数量(不排重)
举例说明,假设我们测试语料库中由m个句子,s1,s2,s3,s4…sm,可以通过取log的方式将乘法转变为加法。
这里写图片描述
此时的值越大说明效果越好。
这里写图片描述
将其转化为指数的方式,此时的perplexity越小越好。

原创粉丝点击