AkihikoWatanabe / paper_notes

たまに追加される論文メモ
https://AkihikoWatanabe.github.io/paper_notes
17 stars 0 forks source link

Re-Reading Improves Reasoning in Language Models, Xiaohan Xu+, N/A, arXiv'23 #1110

Open AkihikoWatanabe opened 10 months ago

AkihikoWatanabe commented 10 months ago

URL

AkihikoWatanabe commented 10 months ago

問題文を2,3回promptで繰り返すだけで、数学のベンチマークとCommonsenseのベンチマークの性能が向上したという非常に簡単なPrompting。self-consistencyなどの他のPromptingとの併用も可能。 なぜ性能が向上するかというと、

  1. LLMはAuporegressiveなモデルであり、bidirectionalなモデルではない。このため、forwardパスのみでは読解力に限界がある。(たとえば人間はしばしばテキストを読み返したりする)。そこで、一度目の読解で概要を理解し、二度目の読解でsalience partを読み込むといったような挙動を実現することで、より問題文に対するComprehensionが向上する。
  2. LLMはしばしばpromptの重要な箇所の読解を欠落させてしまう。たとえば、#793 では、promptのmiddle partを軽視する傾向があることが示されている。このような現象も軽減できると考えられる。

image image image 問題文の繰り返しは、3回までは性能が向上する。 image

AkihikoWatanabe commented 10 months ago

このpromptingは複雑な問題であればあるほど効果があると推察される。