Open letme-hj opened 1 year ago
나는 잘 몰랐던,, NLP pretrained model의 역사
two-stack encoder-decoder artchitecture
Decoder-only VS Encoder-only decoder only 와 encoder only 중 encoder only를 사용할 이유는 없다.는 내용
Decoder-only VS Encoder-Decoder 이 둘의 경계는 좀더 모호하다..
paper https://arxiv.org/abs/2205.05131 blog https://ai.googleblog.com/2022/10/ul2-20b-open-source-unified-language.html huggingface https://huggingface.co/google/ul2
google research 논문
기존에 많은 pretrained model들이 있지만, 어떤 Pretraning setup이 좋은지, 어떤 아키텍처가 좋은지에 대한 정답은 없다. (NLP 기준) 여기서, dataset과 Setup에 걸쳐 효과적인 pretraining 방식을 제안함.