Open IkokObi opened 2 years ago
GPT-3などのzero-shotで使われているpromptingの考えと、pretrain-finetuneの考えを組み合わせた"instruction tuning"を提案した。"instruction tuning"は入力文内にタスク内容の説明文を含める学習方法で、タスクの説明文からその問題の解き方を学習させたいという意図がある。結果としてzero-shotの精度を向上させ、多くのタスクにおいてGPT-2のzero-shotモデルを超え、一部ではGPT-3のfew-shot学習モデルをも超えた。
https://arxiv.org/abs/2109.01652
Jason Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, Quoc V. Le Google Research
2021/10/5
各タスクの詳細はAppendix Fに記載されている。
ざっくり言うと
GPT-3などのzero-shotで使われているpromptingの考えと、pretrain-finetuneの考えを組み合わせた"instruction tuning"を提案した。"instruction tuning"は入力文内にタスク内容の説明文を含める学習方法で、タスクの説明文からその問題の解き方を学習させたいという意図がある。結果としてzero-shotの精度を向上させ、多くのタスクにおいてGPT-2のzero-shotモデルを超え、一部ではGPT-3のfew-shot学習モデルをも超えた。
キーワード
1. 情報
論文リンク
https://arxiv.org/abs/2109.01652
著者
Jason Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, Quoc V. Le Google Research
投稿日付
2021/10/5
2. 先行研究と比べてどこがすごい?
3. 技術や手法のキモはどこ?
4. どうやって有効だと検証した?
5. 議論はある?
6. 次に読むべき論文は?