论文浅尝 | CFO: Conditional Focused Neural Question Answering

来源:互联网 发布:淘宝直通车入门知识 编辑:程序博客网 时间:2024/05/13 00:40

Zihang Dai, Lei Li, and Wei Xu. 2016. CFO: Conditional focused neural question answering with large-scale knowledge bases. In Proceedings of ACL, pages 800–810.

 

链接:http://aclweb.org/anthology/P/P16/P16-1076.pdf

GitHub 项目地址:https://github.com/zihangdai/CFO

 

本文主要关注基于知识库的可答单事实(single-fact)问题,并针对大规模 KB 造成的训练困难做了一系列优化。这类 QA 可以转化为实体和关系抽取的问题,从问题中抽出实体?和关系?,再到知识库中去找答案。进一步转换为概率问题:对给定的问题 ?,找到使联合条件概率 ?(?,?|?) 最大的 (?,?) 对。


在知识库较大时,(?,?) 对非常多,难以直接获取联合条件概率 ?(?,?|?) 。因此先做转换 ?(?,?│?)=?(?|?)∙?(?,?|?),然后对两个部分分别建模。利用 KB 中关系的数量远小于实体数量的特典,先根据问题 ? 推理出关系 ?,再根据问题 ? 和关系 ? 推理出主语实体 ?。


对 ?(?|?) 建模的部分用两层的双向门控循环单元(BiGRU)来构建 q 的特征表示向量,把 q 看成是一个词序列,用事先训练好的词向量作为输入,得到 q 的特征表示向量 f(q),再和 r 的特征向量 E(r) 乘积,E(r) 为模型的参数,随机初始化。


对建模的部分为简单起见,分开计算 ? 和 ? 对 ? 选择的影响,再线性加和。和前半部分相比,q 的特征表示向量 g(q) 的和 f(q) 一样,都是 BiGRU,而 ? 的特征表示向量 E(s) 则不同,文中采用了两种方法:

  1. pretrained embeddings:这里借鉴了他人的一种通过知识库训练 E(s)(E(s)+ E(r) = E(o)) 的方法预先训练 E(s) 向量,然后再微调。

  2. type vector representation:直接用 s 的类别属性表示,假设知识库中有 K 类 s,s 的向量就是 K 维,如果 s 属于第 i 类,E(s) 的第 i 位就为 1,否则为 0。


此外,文中还提出了一种f ocused pruning method 来减少(s,r)对的候选空间,基于 N-Gram 方法做了改进,相对减少了噪声,使候选空间更小。


实验使用了 SIMPLE-QUESTIONS 和 Freebase 的一个子集,比当时的最好结果高 11.8%。

 

论文笔记整理:张宇轩,浙江大学硕士,研究方向为知识图谱,物联网。

 



OpenKG.CN


中文开放知识图谱(简称OpenKG.CN)旨在促进中文知识图谱数据的开放与互联,促进知识图谱和语义技术的普及和广泛应用。

转载须知:转载需注明来源“OpenKG.CN”、作者及原文链接。如需修改标题,请注明原标题。

点击阅读原文,进入 OpenKG 博客。

阅读全文
0 0
原创粉丝点击