面向语义对比分析的词嵌入
来源:互联网 发布:程序员代码图 编辑:程序博客网 时间:2024/06/09 23:40
文献:Chen Z, Lin W, Chen Q, et al. Revisiting Word Embedding for Contrasting Meaning[C] ACL 2015: 106-115.
基本思想
现有的词嵌入模型都是建立在“分布式语义”的假设之上,即“具有相似上下文的词语具有相似语义”,而语义具有对比意义的不同词往往具有相似的上下文. 因而,这些模型难以胜任语义对比分析的任务。
框架
提出如下框架:
(1)Top Hidden Layer负责将词对比语义的各种嵌入表示(SCE、CRM、SDR)集成;
(2)Contrast Inference Layer 负责嵌入表示: CRM与SDR为现有方法,MCE为本文提出的方法。
对比语义嵌入表示方法SCE
启发于Hinton 提出的随机邻域嵌入(stochastic neighbor embedding, SNE)思想“原始空间与嵌入空间中,目标词的邻居分布大致相同”,本文提出SCE(stochastic constrasting embedding),SCE具有如下特征:
在原始空间与嵌入空间中the distribution of the contrasting “neighbors” to be close to the distribution of the “neighbors”
利用词典中的反义词学习constrasting neighbors
在原始空间与嵌入空间中, 词
wk 的具有对比语义邻居词语集与具有相似语义邻居词语集大致不变
词
(1)Marginal Contrasting Embedding
-子目标1:
-子目标2:
-综合目标:
目标1中的
目标2中的
(2)SDR(Semantic Differential Reconstruction)
运用点对互信息PMI(Pointwise Mutual Information)对每个词赋予3维语义:evaluative (good-bad), potency (strong-weak), activity(active-passive),可分别用如下公式计算:
eval(w)=PMI(w,eval+)−PMI(w,eval−) potency(w)=PMI(w,potency+)−PMI(w,potency−) activity(w)=PMI(w,activity+)−PMI(w,activity−) ∗− 与∗+ 分别表示对应维度值的种子词。
可以参阅Saif M. Mohammad, Bonnie J. Dorr, Graeme Hirst, and Peter D. Turney. 2013. Computing lexical contrast. Computational Linguistics, 39(3):555–590.
- 面向语义对比分析的词嵌入
- 基于语义知识不等式的词嵌入
- 面向语义关系的word2vec
- 值语义的分析
- 语义分析的总结
- 经典词嵌入与神经网络语言模型的对比研究
- android--面向开发者的即时通讯SDK对比分析
- 基于层次化多模态LSTM的视觉语义联合嵌入
- 语义分析的一些方法
- 语义分析的一些方法
- 语义分析的一些方法
- 语义分析的一些方法(三) 图像语义分析
- 利用词间语义先验关系提升词嵌入表示
- 语义分析
- 语义分析
- “词网”一家语义分析的公司
- 潜在语义分析对认知科学的启示
- 语义分析的一些方法(一)
- 特征抽取-信息增益
- 二叉树的前序创建树以及中序后序非递归实现 以及节点个数,叶子节点个数第n层节点个数,深度
- android developer tiny share-20170603
- python之 python 起源、语言特点
- E
- 面向语义对比分析的词嵌入
- tensorflow: arg_scope
- Hibernate事务操作
- Day1(电脑,java历史及jdk环境搭建,dos命令)
- 图片压缩
- js实现瀑布流效果
- Qt-QML-QML调用C++类
- SAP ABAP 特性相关表取数逻辑
- c++静态函数、变量