본 논문은 대규모 언어 모델(LLM)의 해석 가능성에 대한 새로운 접근 방식인 '에이전트적 해석 가능성(agentic interpretability)'을 제시한다. 기존의 '내성적(inspective)' 해석 가능성 방법과 달리, 에이전트적 해석 가능성은 LLM과의 다회차 대화를 통해 LLM이 사용자의 정신 모델을 개발하고 활용하여 사용자의 이해를 돕는 것을 목표로 한다. 이는 LLM이 단순히 대화하는 것을 넘어 가르치고 설명하려는 노력으로, 사용자의 이해도를 높이는 것을 성공 지표로 삼는 교사와 유사하다. 에이전트적 해석 가능성은 완전성보다는 상호작용성을 중시하기 때문에, 기만적인 모델이 포함될 수 있는 고위험 상황에는 적합하지 않을 수 있지만, 협력적인 모델을 활용하여 인간의 기계에 대한 정신 모델을 향상시킬 수 있는 초인적 개념을 발견하는 데 도움이 될 수 있다. 그러나 '인간-얽힘-루프(human-entangled-in-the-loop)' 특성으로 인해 평가에 어려움이 존재하며, 이에 대한 해결책과 대리 목표를 논의한다. LLM이 여러 작업에서 인간 수준에 도달함에 따라 에이전트적 해석 가능성은 인간이 LLM의 초인적 개념을 이해하는 데 도움이 될 것으로 기대된다.