Gibbs sampling -- batch LDA

来源:互联网 发布:手卷钢琴 软件 编辑:程序博客网 时间:2024/06/04 18:52

  详细的推导我就不记录了,毕竟各种文章中都有讲到LDA的各种实现算法。用variational inference的,用gibbs sampling的。Gibbs sampling又有batch的,online的,incremental的等等。这里只提一种常用的batch gibbs sampling算法,即由Griffiths和Steyers提出的collapsed Gibbs sampler。
  其中batch gibbs sampling 也就是传统的静态数据集上运行的LDA算法,这也是我们这一篇文章所涉及到的,动态的o-LDA和iLDA在以后的文章中讲。结合上一篇文章中提到的Gibbs抽样基本思想来理解,这个抽样器的状态空间是主题在每一篇文章中的词上的分布。该算法被称为“collapsed”是由于它把变量θϕ都积掉了,只留下隐含主题变量zN需要被抽样。这种思想也是统计推断中常用到的,即将不关心的变量都尽量积掉,这样能大大降低算法的时空复杂度。

  对于算法collapsed Gibbs sampler,它的核心就是对单词j基于以下条件概率进行抽样:

P(zj|zNj,wN)n(wj)zj,Nj+βn(dj)zj,Nj+αn()zj,Nj+Wβn(dj),Nj+Tα

  其中ZNj表示(z1,...,zj1,zj+1,...,zN)W是vocabulary的大小,也就是不同单词的个数。n(wj)zj,Nj表示当前iteration时,单词wj被分配为主题zj的次数,n()zj,Nj是所有词被分配为主题zj的个数,等等。

经过算法

1: initialize zN randomly from 1,...,TN
2: loop
3:  choose j from {1,…,N}
4:  sample zj from P(zj|zNj,wN)

收敛到后验概率分布 P(zN|wN)。也就得到了我们所希望求得的每个词所属主题。

1 0
原创粉丝点击