Language models are increasingly being deployed for general problem solvingacross a wide range of tasks, but are still confined to token-level,left-to-right decision-making processes during inference. This means they canfall short in tasks that require exploration, strategic lookahead, or whereinitial decisions play a pivotal role. To surmount these challenges, weintroduce a new framework for language model inference, Tree of Thoughts (ToT),which generalizes over the popular Chain of Thought approach to promptinglanguage models, and enables exploration over coherent units of text (thoughts)that serve as intermediate steps toward problem solving. ToT allows LMs toperform deliberate decision making by considering multiple different reasoningpaths and self-evaluating choices to decide the next course of action, as wellas looking ahead or backtracking when necessary to make global choices. Ourexperiments show that ToT significantly enhances language models'problem-solving abilities on three novel tasks requiring non-trivial planningor search: Game of 24, Creative Writing, and Mini Crosswords. For instance, inGame of 24, while GPT-4 with chain-of-thought prompting only solved 4% oftasks, our method achieved a success rate of 74%. Code repo with all prompts:https://github.com/ysymyth/tree-of-thought-llm.
Translation (by gpt-3.5-turbo)
言語モデルは、広範なタスクにおいて一般的な問題解決に使用されるようになっていますが、推論中にはトークンレベル、左から右への意思決定プロセスに制限されています。これは、探索、戦略的先読み、または初期の決定が重要な役割を果たすタスクでは不十分であることを意味します。これらの課題を克服するために、私たちは言語モデル推論の新しいフレームワークであるTree of Thoughts(ToT)を導入しました。これは、人気のあるChain of Thoughtアプローチを一般化し、問題解決の中間ステップとして機能する一貫したテキストユニット(思考)を探索することを可能にします。ToTにより、LMは、複数の異なる推論パスを考慮して、次の行動を決定するための自己評価選択を行うことで、意図的な意思決定を行うことができます。また、必要に応じて先を見たり、バックトラックしたりして、グローバルな選択を行うことができます。私たちの実験は、ToTが、非自明な計画や探索を必要とする3つの新しいタスク(Game of 24、Creative Writing、Mini Crosswords)において、言語モデルの問題解決能力を大幅に向上させることを示しています。たとえば、Game of 24では、Chain of Thoughtプロンプトを使用したGPT-4は4%のタスクしか解決できませんでしたが、私たちの手法は74%の成功率を達成しました。すべてのプロンプトを含むコードリポジトリ:https://github.com/ysymyth/tree-of-thought-llm。
Summary (by gpt-3.5-turbo)
言語モデルの推論には制限があり、探索や戦略的先読みが必要なタスクには不十分である。そこで、Tree of Thoughts(ToT)という新しいフレームワークを導入し、Chain of Thoughtアプローチを一般化して、意思決定を行うことができるようにした。ToTにより、言語モデルは複数の異なる推論パスを考慮して、次の行動を決定することができる。ToTは、Game of 24、Creative Writing、Mini Crosswordsなどのタスクにおいて、言語モデルの問題解決能力を大幅に向上させることができることを示している。
URL
Affiliations
Abstract
Translation (by gpt-3.5-turbo)
Summary (by gpt-3.5-turbo)