主题模型(LDA)(二)-公式推导

来源:互联网 发布:ipad老是无法加入网络 编辑:程序博客网 时间:2024/06/05 19:37

上一篇文章讲解了LDA的通俗理解,基本没有用任何公式,还给了用gensim做邮件分类的案例,详情请戳:主题模型(LDA)(一)

这篇文章看一下公式式怎么推导出来的。

正经的LDA,主要有以下几个方面:

  1. 一个函数:gamma函数
  2. 四个分布:二项分布,多项分布,beta分布,狄利克雷分布
  3. 一个概念一个理念:共轭先验与贝叶斯框架
  4. pLSA,LDA
  5. 一个采样:Gibbs采样

我们来看一下它是怎么推导出来的。

共轭先验与共轭分布


这里写图片描述
假定似然函数p(x|θ)已知,问题是选取什么样的先验分布p(θ)和后验分布p(θ|x),使得他们具有相同的数学形式(参数可以不一样)。如果先验分布和后验分布具有相同的数学形式,则称他们为共轭分布,且先验分布为似然函数的共轭先验分布。

举个例子就是

p=νa(1ν)b
p=νm(1ν)n
这就是具有相同的数学形式,但参数不一样的情况。

gamma函数


对于整数而言:

Γ(n)=(n1)!
对于实数:
Γ(x)=0tx1etdt

这里写图片描述

二项分布


二项分布是由n个独立的是、非重复实验中成功次数的离散概率分布其中每次成功的概率为p,相当于你去求婚,每次求婚都有两种结果,成功或失败,如果求婚一次,则称为伯努利分布,如果求婚n次的话(有点略倒霉呀!),则称为二项分布,记为:X ~ B(n,p),它的概率密度函数为:

p(X=k)=Cknpk(1p)np=n!k!(nk)!pk(1p)np

分布如图
这里写图片描述

多项式分布(multinomial distribution)


多项式就是二项分布在高维情况下的推广,把求婚的例子改成抛骰子就OK了。
这里写图片描述

如果用骰子的例子,k=6,ni表示出现第i点的次数(i{1,2,3,4,5,6}); pi表示出现第i点的概率。

beta分布


beta是指一组定义在(0,1)之间的连续概率分布,记为X~Be(α,β)
这里写图片描述
它的概率密度函数和累积分布函数为:
这里写图片描述

狄利克雷分布


事实上,它是Beta函数在高维空间上的推广,
这里写图片描述
其中:
这里写图片描述
对于三维的情况下,将它的概率密度函数取对数,绘制它的分布图像如下:
这里写图片描述

上图中,取K=3,也就是有两个独立参数x1,x2,分别对应图中的两个坐标轴,第三个参数始终满足x3=1-x1-x2且α1=α2=α3=α,图中反映的是参数α从α=(0.3, 0.3, 0.3)变化到(2.0, 2.0, 2.0)时的概率对数值的变化情况。

几个主题模型

生成模型
unigram model

对于已经分好词的文档d=(w1,w2,w3,,wN),用p(wn)表示词 wn的先验概率,则生成文档d的概率为:

p(d)=n=1Np(wn)
这个是最简单的方法,就是把文章中每个单词出现的概率是多少乘起来,就等于这篇文档的出现的概率。

Mixture of unigrams model

这个模型的生成过程是先给某个文档生成主题,再根据主题生成文档,该文档中的每个词都来源于同一主题。

举个例子,假如有k个主题:z1,z2,z3,,zk,那生成文档的概率为:

p(d)=p(z1)i=1Np(wi|z1)+p(z2)i=1Np(wi|z2)+p(zk)i=1Np(wi|zk)

它的含义就是这篇文档属于某一主题 t 概率乘以这篇文档中的每一个单词出现在该主题 t  下的概率的连乘。

这里写图片描述
与上一个模型相比,这个模型的主要改进是使用了Topic作为中间量。

这两个模型被我们称之为生成模型,扮演的角色相当于前面的似然函数likelihood.

PLSA

假设有三个主题,分别为教育,经济,交通,PLSA就像扔骰子一样,第一次得到文档到主题的概率分布:P(t|d),第二次呢,就得到主题都单词的分布:p(w|t),假设得到的主题是经济,那就是p(|),最后把这两个概率相乘,就得到了文档到单词的分布:p(|)
这里写图片描述

我们用公式表示出来就是:根据p(wj|di) 训练出

p(zk|di)
p(wj|zk)
得到:
p(wj|di)=k=1Kp(wj|zk)p(zk|di)
然后得到文档中每个词的生成概率:
p(di,wi)=p(di)p(wj|di)=p(di)k=1Kp(wj|zk)p(zk|di)
其中,p(di)可以事先计算出来,但是p(wj|zk),p(zk|di)是未知的,这就是我们要估计 的参数值,
θ=(p(wj|zk)p(zk|di))
最大化就是我们的优化目标。

LDA

LDA其实就是在PLSA上加了一层贝叶斯框架,为了更好的理解LDA,我们把LDA和PLSA比较一下:
对于PLSA:

  1. 按照概率p(di)选择一篇文档di
  2. 选定文档di之后,确定该文档的主题;
  3. 从主题分布中按照概率p(zk|di)选择隐含的主题的类别zk;
  4. 选择主题后,确定该主题下词分布
  5. 从词分布中按照概率p(wj|zk)选择一个词wj

对于LDA:

  1. 按照先验概率p(di)选择一篇文档di
  2. 从狄利克雷分布α中取样生成文档di的主题分布θi,也就是主题分布θi由超参数为α的狄利克雷分布构成
  3. 从主题的多项式分布θi取样生成文档di的第j个词的主题zi,j
  4. 从狄利克雷分布β中取样生成主题zi,j对应的词语分布ϕzi,j,也就是说词语分布由参数为β的狄利克雷分布生成
  5. 从词语的多项式分布ϕzi,j采样最终生成词语wi,j

用一分钟解释就是LDA把PLSA中按照固定概率取的参数都换成了某一固定的概率分布,它们的本质区别是估计未知参数所采用的思想不同,PLSA采用的是频率派的思维:参数θ虽然未知,但它是一个确定的值;LDA采用的是贝叶斯思维:认为待估计参数为随机变量,且服从一定的概率分布。

第一版
2017.12.6
参考
七月算法课课件
通俗理解LDA主题模型