[EMNLP2017]End-to-End Neural Relation Extraction with Global Optimization

来源:互联网 发布:对网络课程的认识 编辑:程序博客网 时间:2024/06/06 02:10

我们首先了解该paper解决的问题,也就是任务:
这里写图片描述
句子级的实体识别和关系判断,针对Figure 1给出的一句话:Associated Press writer Patrick McDowell in Kuwait City 识别这句话中出现的识别,其实就是给句子打标签,在本在本文中,实体的标签表示如下:
B-, I-, L-, O, U-, 代表了具体的实体类型,例如组织名,人名等
在识别完实体之后,针对识别出的实体进行两两关系判断,关系的标签类型如下:
, , , 指的是具体的关系类型,并且关系是有方向的,所以有了左右箭头,代表要判定的两个实体之间没有关系.

下图给出了本文在做实体识别和关系抽取时最主要的流程:
这里写图片描述

仔细观察Figure 2的table的上半三角中每个表格,每个表格中都有数字,就是解析过程中每一步.表格的个数是m=n(n+1)2, n是句子长度,m就是解析序列的长度,就是Figure 2 上半三角中表格的个数.
在解析的过程中,仍然是识别句子中所有的entity, 就是首先填充对角线,然后针对识别出的实体进行两两判断关系,但是本文用了beam search,在每一步都保留之前解析结果的top k个得分最好的,第i+1步时保留的top k个解析结果的排序已经发生了变化,而且重要的是,将实体识别序列和关系识别序列一起打分的,所以说是全局最优的.
打分函数如下:
这里写图片描述
部分填充的table: T0T1...Ti1Ti...Tm
Ti1对应的解析序列是: l1l2...li1
Ti = FILL(Ti1, li),
根据公式(1)那么目前的问题是:如何用embedding表示Ti,即ht
这里写图片描述

这里写图片描述
在上图的(a), (b)中的实体识别和关系判定的神经网络中都有一个hT,
一个解析序列的得分就是hi的相加
在选取特征时用了LSTM-Minus, 我觉得挺有意思的.

阅读全文
0 0
原创粉丝点击