**文中提出的非常重要的观点就是 当前 sentence的context中存在的relation会有利于提取当前sentence的relation。
**
在进行预测的时候使用了context representation
主要的核心思想就是使用了LSTM encoder
- main contribution就是一个全新的网络框架。
- 其实应该还有这个context representation的idea
以及- 还有应该是open了自己做的distant supervision的数据?
用的是50维的embedding
其中网络中有很特殊的 word token marker 分为三类
- entity 1
- entity 2
- none of above.
当前句子的relation representation是
context的句子一共有m句,对每一句话都需要经过一次 relation encoder,得到m个,然后经过attn计算每个的权重,将这些权重 softmax一下之后计算出一个 这就是 context relation representation了
其中提到了 是与同样长度,说明操作完全相同,marker也是一致的。
就是把两个计算出来的和 concate起来做一个classification
一句话中最多有7个relation
position marker在模型中经过简单的测试发现并没有用
问题
- 我寻思一句话全部输入的话,咋抽取出 7个relation呢
问题是,entity 是否被标定了的话,应该是只需要做relation classification?- 应该是的,文中提到了 predict the final relation type.