主要针对multiple entity-relations from an input paragraph,解决了 multiple-passes issue。用MRE对input只encoding一次,提高了效率和可扩展性。基于BERT,但对原来的BERT做了一些修正。1 引入了一个structured prediction layer用于预测multole relations for different entity pairs. 2 令self-attention layer意识到整个paragraph里所有的entities position
一句话总结:
主要针对multiple entity-relations from an input paragraph,解决了 multiple-passes issue。用MRE对input只encoding一次,提高了效率和可扩展性。基于BERT,但对原来的BERT做了一些修正。1 引入了一个structured prediction layer用于预测multole relations for different entity pairs. 2 令self-attention layer意识到整个paragraph里所有的entities position
资源:
论文信息:
笔记:
3.2 Entity-Aware Self-Attention based on Relative Distance
模型图:
结果:
(这个是不是也说明用简单的classifier会比较好)
接下来要看的论文: