本論文は、大規模言語モデル(LLM)の内部動作方法を探求する機械的解釈可能性(MI)分野の最近の研究結果を包括的に提示します。既存のLLMが表面的な統計にのみ依存するという見解に挑戦し、LLMが接続を特定するのと機能的に類似した内部構造を開発すると主張しています。そのために、理解に関する3段階の概念(概念的理解、世界状態理解、原則的理解)を提示し、各段階でLLMがどのように理解を進めるかを説明します。しかし、「パラレルメカニズム」の現象を通じて、LLMの理解が人間の理解とは根本的に異なることを強調し、LLMが理解するかどうかについての議論ではなく、LLMの特異な考え方を研究し、それに合った概念を形成することに焦点を合わせるべきであると結論する。