Switchsyj / paper-reading

1 stars 0 forks source link

SpanBERT: Improving Pre-training by Representing and Predicting Spans #3

Open Switchsyj opened 2 years ago

Switchsyj commented 2 years ago

SpanBERT: Improving Pre-training by Representing and Predicting Spans

Motivation: 预训练模型(BERT)对基于span表示的任务(如:抽取问答、信息抽取、指代消解)性能相对不够好。是因为(1)基于subtoken的预训练过程忽视了一个实体的整体性(预测实体任务本身比预测token难度更大,这样相当于增加预测过程的限制条件?)。(2)没有融入实体的边界信息。

解决方案: (1)预训练过程利用span-masked方法。(2)增加新的训练目标span-boundary objective(SBO)

任务:SQuAD,TACRED,GLUE

主要信息


新知识


image.png

)))

继续学习的相关工作


实验验证任务


IDEA


✏️好句好段


Facebook的文章总是这么朴实无华又出人意料。。。