toriving / Plz_Read_The_Paper

Paper reading logs
11 stars 0 forks source link

PALM: Pre-training an Autoencoding&Autoregressive Language Model for Context-conditioned Generation #59

Closed toriving closed 3 years ago

toriving commented 3 years ago

https://arxiv.org/abs/2004.07159

image

Abstract

: This work presents PALM with a novel scheme that jointly pre-trains an autoencod- ing and autoregressive language model on a large unlabeled corpus, specifically designed for generating new text conditioned on con- text.

Read and comprehend 기반으로 생성하는 모델을 제안한다. PALM (Pre-training an Autoencoding and autoregressive Language Model for text generation based on reading comprehensionof textual context

: context를 활용한 BART 식의 LM을 제안한다는 것

BART와 MASS는 비슷하지만 noise 전략이 다름

MASS : Encoder에서 masking 한 부분을 Decoder에서는 보여주고, Encoder에서 masking 되지 않은 부분을 Decoder에서는 masking 함

Pointer-generator network를 사용한다

Final distribution = mixture of the extended vocabulary distribution and the copy distribution

extended vocabulary distribution -> Voc. dist copy distribution -> Attention dist

학습 시 A, B, C, D가 존재하면 Encoder에 A, B를 통해 MLM 학습하고 , Decoder에서 C D를 통해 LM을 학습한다.

BART와 다른점은 BART는 encoder에서 MLM을 학습하지 않고, Decoder에서도 ABCD 문장 전부 LM을 하는 것

PALM으로 학습하게 되면 encoder에 context 또는 condition을 줄 수있고, decoder에서는 encoder vector를 이용해 생성가능

-> language generation tasks, including generative QA, abstractive summarization, question generation, and conversational response generation.

toriving commented 3 years ago

https://github.com/toriving/Plz_Read_The_Paper/blob/master/PAPERS/PALM-%20Pre-training%20an%20Autoencoding%26Autoregressive%20Language%20Model%20for%20Context-conditioned%20Generation.pdf