본 논문은 인지 과학에서 인간의 사고 구조와 발달에 대한 계산적으로 명시적인 설명을 제공하는 것을 중심 목표로 삼고, 특히 추상적인 인지 기능(언어, 논리 등) 영역에서 인공 신경망의 적절성에 대한 오랜 논쟁을 다룬다. 논문은 대규모 언어 모델(LLM)의 발전이 이 논쟁에 중요한 변화를 가져왔다고 주장한다. 논리적 개념에 대한 규칙 유도 연구에 사용되는 기존 실험 패러다임을 통해 여러 LLM을 검증한 결과, LLM이 베이지안 확률적 사고 언어(pLoT) 모델만큼 인간 행동과 잘 맞는다는 것을 발견했다. 더 나아가 LLM은 규칙의 본질에 대해 pLoT와 질적으로 다른 예측을 하며, LLM이 단순히 pLoT의 구현체가 아니라는 것을 시사한다. 따라서 LLM이 인간의 논리적 개념을 설명하는 데 필요한 원시적 표상과 계산에 대한 새로운 이론적 설명을 제시할 수 있으며, 향후 인지 과학 연구에서 이를 다루어야 한다고 주장한다.