**文中提出的非常重要的观点就是 当前 sentence的context中存在的relation会有利于提取当前sentence的relation。
**

在进行预测的时候使用了context representation

主要的核心思想就是使用了LSTM encoder

  • main contribution就是一个全新的网络框架。
  • 其实应该还有这个context representation的idea
    以及
  • 还有应该是open了自己做的distant supervision的数据?

用的是50维的embedding
其中网络中有很特殊的 word token marker 分为三类

    1. entity 1
    1. entity 2
    1. none of above.

Context-Aware Representations for Knowledge Base Relation Extraction论文笔记

当前句子的relation representation是oso_s
context的句子一共有m句,对每一句话都需要经过一次 relation encoder,得到m个oio_i,然后经过attn计算每个oio_i的权重,将这些权重 softmax一下之后计算出一个oco_c 这就是 context relation representation了

其中提到了ocRoo_c \in \mathcal{R}^o 是与oso_s同样长度,说明操作完全相同,marker也是一致的。

Context-Aware Representations for Knowledge Base Relation Extraction论文笔记

就是把两个计算出来的oso_soco_c concate起来做一个classification

一句话中最多有7个relation
position marker在模型中经过简单的测试发现并没有用

问题

    1. 我寻思一句话全部输入的话,咋抽取出 7个relation呢
      问题是,entity 是否被标定了的话,应该是只需要做relation classification?
  • 应该是的,文中提到了 predict the final relation type.

相关文章: