word2vec中一种模型的理解
来源:互联网 发布:匹克模考tpo软件 编辑:程序博客网 时间:2024/06/07 18:20
- 定义及符号
单词(word):w,使用长度为d的列向量表示
语境(context):以单词w为中心,向前k个单词,向后k个单词所形成的短语中包含的单词
模型参数:θ
条件概率p(c|w):当w出现时,某一语境c出现的概率
C(w):在文本集合T中,单词w出现过的语境包含的单词的集合
语境中的单词c,使用长度为d的列向量表示 c∈C(w)
c和w均表示单词,但作者认为,即使对于同一个单词,比如apple,它作为普通单词和作为语境中的单词是的向量表示是不同的,因此使用不同的符号来表示语境中的单词和普通单词。
V:文本集合对应的词汇表
D:所有单词w和它的语境C(w)构成的组合的集合
- Skip-gram
等同于下式:
作者使用了逻辑回归的扩展Softmax [4] 对θ进行形式化处理,使得条件概率转化为下式:
其中vc和vw分别是c和w的列向量,维度为d。C是所有语境中的单词构成的集合,等同于词汇表V。参数θ就是vc和vw中每一维度的具体取值,参数的总数为|C|×|V|×d。将式3代入式2,并于等式两边取对数可得:
作者认为,通过训练得到的单词的向量表示vw能够使得条件概率p(c|w)最大化,则vw是w的好的表示。这里潜在的基本假设是:相似的单词拥有相似的语境。换言之,特定的语境只有确定的语义才能够与之匹配。通过最大化条件概率,使得单词和语境之间的对应关系最大化,进而满足了基本假设:相似的单词拥有相似的语境。而满足条件概率最大化的单词矢量,也就成为了单词语义的合理表示。
从式3可以发现,由于条件概率p(c|w)的分母计算需要很大代价,作者使用hierarchical softmax来近似softmax,并用霍夫曼树来构建hierachical softmax.
- Negative Sampling
同样,使用softmax来量化p(D=1|w,c;θ):
因此,最终的目标函数为:
为了使目标函数最大化,有一个很简单的方法,即使得vc=vw,且vc·vw=K。当K足够大时,可以得到p(D=1|w,c)=1,从而达到目标函数最大化。因此,为了所有的矢量有相同的值,作者生成了一个数据集D',D'中的所有单词、语境组合都不存在于T中,这些样例被称之为反例(negative examples),而获得反例的采样方法被称之为反例采集(negative-sampling)。引进了反例之后的目标函数演变为:
假设σ(x)=1/(1+e-x),则:
和式4进行比较,可以明显的看到累加嵌套的消除。两者最大的区别是式4根据条件概率p(c|w)进行建模而此处根据联合概率p(D=1|w,c)进行建模
0 0
- word2vec中一种模型的理解
- word2vec 模型的详细数学推导和直观理解
- Word2Vec的一些理解
- word2vec的细节理解
- word2vec我的理解
- 对word2vec的理解
- word2vec Skip-gram模型精华理解
- 谈谈Word2Vec的CBOW模型
- 我所理解的word2vec
- 理解word2vec的训练过程
- 理解word2vec的训练过程
- Mikolov的Word2vec学习理解
- word2vec模型中基于 Hierarchical Softmax 的CBOW和Skip-gram模型
- word2vec模型
- word2vec模型
- Word2Vec模型
- Word2Vec模型
- word2vec理解
- 盒子模型(一)
- HDU1254-推箱子
- Xcode SVN配置方法
- 数据结构之排序算法(一)
- 434. Number of Segments in a String#1
- word2vec中一种模型的理解
- java编程思想读书笔记-第十五章 分布式计算
- PID
- Caffe学习系列(9):运行caffe自带的两个简单例子
- 跳台阶
- 授予身份及切换身份
- Longest Increasing Path in a Matrix (第五周 记忆化搜索)
- 2018网易游戏雷火盘古实习生笔试
- PAT-B1065. 单身狗