この論文は、Chain-of-thought(CoT)プロンプトが多段階での大規模言語モデル(LLM)の精度を高めるのに効果的ですが、生成された「思考プロセス」が実際の内部推論プロセスを反映しているかどうかは不確実であることを指摘しています。組み合わせて、Pythia-70MとPythia-2.8BモデルがGSM8K数学の問題をCoTおよび一般(noCoT)プロンプトで解決しながら、単一の意味特徴を抽出します。また、より大きなモデルで活性化希少性と特徴解析可能性スコアを大きく高め、さらにモジュール化された内部計算を示します。 LLMは、より解釈可能な内部構造を導き、構造化プロンプト方法としての役割を検証することを示します。