izhx / paper-reading

组内追更订会相关论文
7 stars 2 forks source link

DeBERTa: Decoding-enhanced BERT with Disentangled Attention #3

Open zhangfanTJU opened 3 years ago

zhangfanTJU commented 3 years ago

内容

改善 BERT 和 RoBERTa预训练效率,并提升下游指标

信息

1 学习到的新东西:

2 通过Related Work了解到了哪些知识

按自己的认识写,

3 实验验证任务,如果不太熟悉,需要简单描述

SuperGLUE SOTA

4 在你认知范围内,哪些其它任务可以尝试

5 好的词语、句子或段落

以句子为单位收集