本研究では、大規模言語モデル(LLM)が困難な問題に対するパフォーマンスを向上させるために回答を生成する前に中間推論ステップを生成できることに着目し、コンテンツ調整作業の交尾結合実験を通じて、人間の意思決定時間とモデルの推論努力との間の類似性を調査しました。 3つの最先端モデルにわたる推論努力は、一貫して人間の意思決定時間を予測しました。人間とモデルの両方が重要な変数を一定に保つにつれてより多くの努力を払いました。これらの結果は、AI推論努力が主観的判断における人間の処理時間を反映し、推論追跡が解釈の可能性と意思決定に潜在的であることを強調します。