本論文では、大規模言語モデル(LLM)の推論能力を向上させるために、プログラム実行の決定性を活用して高品質のChain of Thoughtマップデータを生成するスケーラブルな方法を提案します。既存の人間の注釈やエラーが発生しやすいLLM生成CoTに頼るのではなく、コード実行から検証可能なステップバイステップの推論プロセスを抽出し、自然言語のCoT推論に変換します。さまざまなドメインの推論ベンチマーク実験によって提案された方法は、さまざまなタスクでLLMの転移可能な推論能力を効果的に向上させることを示しています。さらに、アブレーション研究は、方法論が非常に正確な推論データを生成し、無意味な反復と過度の事故を減らし、推論の間のトークン全体の長さを減らすことを確認しました。