Word2Vector
来源:互联网 发布:如何查看淘宝商品排名 编辑:程序博客网 时间:2024/06/11 06:03
Word2vec
词向量的概念
将 word映射到一个新的空间中,并以多维的连续实数向量进行表示叫做“Word Represention” 或 “Word Embedding”。自从21世纪以来,人们逐渐从原始的词向量稀疏表示法过渡到现在的低维空间中的密集表示。用稀疏表示法在解决实际问题时经常会遇到维数灾难,并且语义信息无法表示,无法揭示word之间的潜在联系。而采用低维空间表示法,不但解决了维数灾难问题,并且挖掘了word之间的关联属性,从而提高了向量语义上的准确度。
Word2Vector 模型
通过神经网络机器学习算法来训练N-gram 语言模型,并在训练过程中求出word所对应的vector的方法。
N元语言模型和 神经网络概率语言模型
N元语言模型
统计语言模型的一般形式直观、准确,n元模型中假设在不改变词语在上下文中的顺序前提下,距离相近的词语关系越近,距离较远的关联度越远,当距离足够远时,词语之间则没有关联度。
神经网络概率语言模型
神经网络概率语言模型通过学习训练语料获取词向量和概率密度函数,词向量是多维实数向量,向量中包含了自然语言中的语义和语法关系,词向量之间余弦距离的大小代表了词语之间关系的远近,词向量的加减运算则是计算机在"遣词造句"。
对比
1 前者没有考虑距离更远的词语与当前词的关系,即超出范围n的词被忽略了,而这两者很可能有关系的。
例如,“华盛顿是美国的首都”是当前语句,隔了大于n个词的地方又出现了“北京是中国的首都”,在n元模型中“华盛顿”和“北京”是没有关系的,然而这两个句子却隐含了语法及语义关系,即”华盛顿“和“北京”都是名词,并且分别是美国和中国的首都。
2 忽略了词语之间的相似性,即上述模型无法考虑词语的语法关系
例如,语料中的“鱼在水中游”应该能够帮助我们产生“马在草原上跑”这样的句子,因为两个句子中“鱼”和“马”、“水”和“草原”、“游”和“跑”、“中”和“上”具有相同的语法特性。
阅读全文
0 0
- Word2Vector
- word2vector使用
- word2vector体验
- Word2Vector相关资料
- 跬步系列 - word2vector
- word2vector & paragraph2vector 技术分享
- word2vector 源代码分析
- word2vector 知识总结
- word2vector学习笔记(一)
- word2vector学习笔记(一)
- [Machine Learning]--Word2Vector from Google
- word2vector:NPLM、CBOW、Skip-gram
- word2vector 一些问题及思考
- learn word2vector from scratch -- part 1
- learn word2vector from scratch -- part 2
- learn word2vector from scratch -- part 3
- learn word2vector from scratch -- part 4
- 用gensim的word2vector实现词嵌入
- 爬格子呀--2048
- Androidstudio的常见快捷
- 在液晶上显示数字思路,如显示123456789
- HDOJ2045_不容易系列之(3)—— LELE的RPG难题
- MVC基本概念及优缺点:
- Word2Vector
- 基础二维码
- POJ 2739
- java+http socket
- 流媒体直播之二imx6 arm板的live555的交叉编译
- 小程序选项卡例子(css略)
- HttpClient+HttpURLConnection
- XMMPP实现即时通讯
- LeetCode Partition List