この論文では、大規模言語モデル(LLM)の推論能力を向上させるために、適応分岐モンテカルロツリー探索(AB-MCTS)という新しい推論時間フレームワークを提案します。従来の反復サンプリング方式には外部フィードバックを利用できないという制限があり、AB-MCTSはコーディングなどの作業で利用可能な外部フィードバック信号に基づいて候補応答を拡張したり、既存の応答を見直したりするマルチターンナビゲーションと活用を通じてこれを克服します。最先端モデルを用いた複雑なコーディングとエンジニアリング作業の実験結果から,AB‐MCTSは繰り返しサンプリングと標準MCTSより性能が優れていることを示した。これは、LLMの応答多様性とマルチターンソリューションの改善を組み合わせることが、効果的な推論時間拡張に重要であることを強調しています。