karakuri-ai / paper-readings

repository to research the machine learning papers
2 stars 1 forks source link

[2021] FINETUNED LANGUAGE MODELS ARE ZERO-SHOT LEARNERS #60

Open IkokObi opened 2 years ago

IkokObi commented 2 years ago

ざっくり言うと

GPT-3などのzero-shotで使われているpromptingの考えと、pretrain-finetuneの考えを組み合わせた"instruction tuning"を提案した。"instruction tuning"は入力文内にタスク内容の説明文を含める学習方法で、タスクの説明文からその問題の解き方を学習させたいという意図がある。結果としてzero-shotの精度を向上させ、多くのタスクにおいてGPT-2のzero-shotモデルを超え、一部ではGPT-3のfew-shot学習モデルをも超えた。

キーワード

1. 情報

論文リンク

https://arxiv.org/abs/2109.01652

著者

Jason Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, Quoc V. Le Google Research

投稿日付

2021/10/5

2. 先行研究と比べてどこがすごい?

3. 技術や手法のキモはどこ?

4. どうやって有効だと検証した?

5. 議論はある?

6. 次に読むべき論文は?

IkokObi commented 2 years ago

7. 実装の詳細

スクリーンショット 2021-10-22 18 13 20
IkokObi commented 2 years ago

8. データセット

各タスクの詳細はAppendix Fに記載されている。

スクリーンショット 2021-10-22 18 14 06
IkokObi commented 2 years ago

9. 結果の詳細

IkokObi commented 2 years ago

雑感&メモ