第三段说了joint learning。有两个问题,第一个问题是 (Miwa and Sasaki, 2014)的方法explicitly incorporate entity-relation label interdependencies, use complex features and search heuristics to fill table。而且他们没有使用NN。第二个问题是即使使用NN,现在的RNN,CNN模型将RE当做一个sentence-level multi-class classification, 而且必须依赖句子提供relation才行。所以,他们无法处理 multiple relation instances in a sentence 和 无法利用relation来帮助预测entity。
一句话总结:
提出了一个Table Filling Multi-Task Recurrent Neural Network (TF-MTRNN) model,将E2ERE问题变成了一个 table-filling problem,用于对二者的内部联系进行建模。这个模型能对multiple relaiton instance进行建模。
资源:
论文信息:
笔记:
第一段介绍了E2ERE是什么,写的不错。
第二段介绍了通常我们认为NER对RE有帮助,但其实RE对NER也有帮助,尤其是multiple relation存在的情况下。所以如何对二者的interaction进行建模是一个问题。
第三段说了joint learning。有两个问题,第一个问题是 (Miwa and Sasaki, 2014)的方法explicitly incorporate entity-relation label interdependencies, use complex features and search heuristics to fill table。而且他们没有使用NN。第二个问题是即使使用NN,现在的RNN,CNN模型将RE当做一个sentence-level multi-class classification, 而且必须依赖句子提供relation才行。所以,他们无法处理 multiple relation instances in a sentence 和 无法利用relation来帮助预测entity。
模型图:
结果:
最后结论说我们的entity-relation table能学到laebl interdependencies. 我们使用的owrk-level relation classification能对multiple relation instances进行建模。并且引入RNN用于context-awareness.
接下来要看的论文: