takumi7110 / paper

0 stars 0 forks source link

[2022]Chain-of-Thought Prompting Elicits Reasoning in Large Language Models #12

Open takumi7110 opened 1 year ago

takumi7110 commented 1 year ago

【実験結果】 • モデルの推論はほとんど正確であるが、数学の問題では偶然正しい答えにたどり着くことが難しいため、Chain-of-Thought Prompting の結果が正しい答えになることが多い。 • 多肢選択問題やバイナリ分類問題では、モデルが誤った推論経路で正しい答えにたどり着くことがより多い。 • Chain-of-Thought Prompting の生成された推論経路の完全性については、今後の研究で分析する必要がある。 【考察】 • Chain-of-Thought Prompting は、大規模な言語モデルに対して容易に適用できるため、多くのタスクを単一のモデルで実行することができる。 • Chain-of-Thought Prompting は、モデルの振る舞いを解釈可能にするため、モデルが特定の答えに到達するための推論経路をデバッグする機会を提供する。 •Chain-of-Thought Prompting は、算術、常識、象徴的な推論などのタスクに適用できるだけでなく、言語で解決できる人間のタスクにも適用できる可能性がある。

takumi7110 commented 1 year ago

https://arxiv.org/abs/2201.11903

https://arxiv.org/pdf/2201.11903.pdf

takumi7110 commented 1 year ago

Chain-of-Thought Prompting : Promptingを、思考の過程の説明があるFew-Shotにする。(数学の文章問題等に有効) 2201 11903v6 Chain_of_Thought_Prompting_Elicits_Reasoning_in_Large_Language_Models-Figure3-1 2201 11903v6 Chain_of_Thought_Prompting_Elicits_Reasoning_in_Large_Language_Models-Figure4-1 2201 11903v6 Chain_of_Thought_Prompting_Elicits_Reasoning_in_Large_Language_Models-Figure7-1