본 논문은 대규모 개방형 언어 모델(LLM) 기반의 AI 에이전트 개발이 인간의 글쓰기, 코딩, 그래픽 디자인, 과학 연구 등 다양한 작업을 지원하는 범용 AI 어시스턴트 개발의 길을 열었지만, 단기간 상호작용 데이터로 학습되어 장기간 상호작용에 대한 일반화가 어렵다는 점을 지적한다. 특히 사용자의 반복적인 수정에도 불구하고 에이전트가 오류를 반복하는 문제점을 해결하기 위해, 인간의 사회적 지능, 즉 예측 불가능한 행동을 하는 다른 에이전트와 장기적인 관계를 구축하고 유지하는 능력을 명시적으로 모델링해야 한다고 주장한다. 인간이 장기간에 걸쳐 서로 소통하고 추론하는 전략을 수학적으로 모델링하여, LLM 및 미래 AI 에이전트를 최적화할 수 있는 새로운 게임 이론적 목표를 도출할 수 있을 것이라고 제시한다.