本論文は,大規模言語モデル(LLM)の長文推論過程の解析性問題を解決するために文単位分析に焦点を当てた研究です。 LLMの推論プロセスを理解するために、3つの相互補完的な帰納法を提示します。まず、各文章の反射実績重要度を測定するブラックボックス方法、第二に、文章間アテンションパターンを集計して「放送」文章と「受信」アテンションヘッドを識別するホワイトボックス法、第三に、ある文章に対するアテンションを抑制して他の文章への影響を測定する因果的帰因方法です。 3つの方法はすべて、推論プロセスに過度の影響を及ぼす「思考アンカー」の存在を明らかにし、これは主に計画または振り返る文であることを示しています。最後に、事故アンカーを可視化するオープンソースツールを提供し、多段階推論の過程で各方法の結果が一致するケーススタディを提示します。