A Neural Probabilistic Language Model笔记

来源:互联网 发布:拳皇14出招优化补丁 编辑:程序博客网 时间:2024/05/14 18:20

1.经典之paper,虽然之前一直有了解,但是未及细读,现在终于有时间好好研究一下了。
2.首先是一个概率模型:
这里写图片描述
3.然后是两个假设条件:First, it is not taking into account contexts farther than 1 or 2 words,1 second it is not taking into account the “similarity” between words.
所以模型:这里写图片描述
4.具体模型
这里写图片描述
这里写图片描述
这里写图片描述
4.1输入层(第一层):一个C映射,wi的维度是1xV,C的维度是Vxm,所以1xVxVxm=1xm;第二层tanh函数进行计算,在最后的实验中,Bengio 发现直连边虽然不能提升模型效果,但是可以少一半的迭代次数。同时他也猜想如果没有直连边,可能可以生成更好的词向量;输出层:softmax函数。
4.2目标函数
每一层的参数,和维度
最终训练的C就是我们需要的词向量
5.伪代码
这里写图片描述
这里写图片描述
6.训练的时候要找一个好点的语料库,因为自己的文本词频一般都不够。

阅读全文
0 0