Open eubinecto opened 2 years ago
음.. 그런데 내가 모든 PLM 논문을 읽어본건 아니라, 각 모델 별로 사전학습 테스크가 어떠한지는 잘 모른다.
그래서 다시 논문을 읽어보면서 [SEP] / [MASK] / [CLS]와 같은 스페셜 토큰의 의미를 미리 알아두고 싶다.
[SEP]
[MASK]
[CLS]
이걸 잘 파악해야 사전학습된 가중치를 최대한 활용할 수 있기 때문이다. 사전학습된 테스크가 무엇인지를 제대로 이해했다면, zero-shot / few-shot learning이 가능할수도 있다.
하지만 위처럼 zeroshot, fewshot을 하기 위해선 [MASK] 토큰, [LABEL] 토큰이 어떤 의미를 가지는지 이해해야하고, 이를 위해선 사전학습 테스크에 대한 (너 뭘 공부해봤어?) 이해가 필요하다.
[LABEL]
그래서 많이 쓰이는 PLM의 사전학습 테스크를 전부 살펴보고 싶다.
Why?
음.. 그런데 내가 모든 PLM 논문을 읽어본건 아니라, 각 모델 별로 사전학습 테스크가 어떠한지는 잘 모른다.
그래서 다시 논문을 읽어보면서
[SEP]
/[MASK]
/[CLS]
와 같은 스페셜 토큰의 의미를 미리 알아두고 싶다.이걸 잘 파악해야 사전학습된 가중치를 최대한 활용할 수 있기 때문이다. 사전학습된 테스크가 무엇인지를 제대로 이해했다면, zero-shot / few-shot learning이 가능할수도 있다.
하지만 위처럼 zeroshot, fewshot을 하기 위해선
[MASK]
토큰,[LABEL]
토큰이 어떤 의미를 가지는지 이해해야하고, 이를 위해선 사전학습 테스크에 대한 (너 뭘 공부해봤어?) 이해가 필요하다.그래서 많이 쓰이는 PLM의 사전학습 테스크를 전부 살펴보고 싶다.