CS224D:Deep Learning for NLP Note1

来源:互联网 发布:db2 恢复数据库 编辑:程序博客网 时间:2024/04/30 10:46

keywords: Word Vectors, SVD, Skip-gram. Continuous Bag of Words(CBOW). Negative Sampling.
关键词:词向量,奇异值分解,Skip-gram,CBOW,负抽样

词向量

One-hot vector: Represent every word as an R|V|×1 vector with all 0s and one 1 at the index of that word in the sorted english language
V 为词典大小

这里写图片描述

  • 相似度距离无法计算

SVD

这里写图片描述

CBOW:从上下文预测中心词

这里写图片描述

算法

这里写图片描述
这里写图片描述

模型

这里写图片描述

Skip-gram:中心词预测上下文

这里写图片描述

算法

这里写图片描述

模型

这里写图片描述

目标函数

朴素贝叶斯假设:输出词之间相互独立

这里写图片描述

负抽样

负样本过大,计算复杂
负样本抽样之后,优化目标函数的目的变为:正负样本预测正确的概率均比较大时才是全局最有
D帽为负样本集合

这里写图片描述

原创粉丝点击