tm4roon / survey

Survey on machine learning.
14 stars 1 forks source link

Aligning the Pretraining and Finetuning Objectives of Language Models #73

Open tm4roon opened 4 years ago

tm4roon commented 4 years ago

Aligning the Pretraining and Finetuning Objectives of Language Models

BERTの事前学習で利用されている、masked language model (MLM)とnext sentence prediction(NSP)の代替となる事前学習手法を提案し、concept-of-interest taggingとacronym detectionタスクにおいて、より少ないデータでも効果的にfinetuningできることを示した。ここで提案している事前学習手法は次の2つ。

文献情報