본 논문은 언어 모델(LMs)이 추론 능력을 보인다고 여겨지는 것에 대한 평가를 제시한다. 논문은 추론의 정의와 자연어 처리(NLP) 분야의 주요 논문들이 이 개념을 어떻게 사용하는지 분석한다. 특히, 트랜스포머 기반 LM이 암묵적인 유한 차수 마르코프 커널을 구현한다고 가정하며, 추론과 유사한 결과가 명시적인 논리적 메커니즘이 아닌, 학습된 커널 내의 통계적 규칙성과 근사적 통계적 불변성에 기인한다고 주장한다. 이 관점은 LM이 "통계적 패턴 매처"이며 진정한 추론자가 아님을 시사하며, 논리적 일관성에 대한 보장 없이 추론과 유사한 출력이 발생하는 이유를 설명한다. 또한, LM에서 인식론적 불확실성을 평가하는 방식에 대한 근본적인 차이점을 제시하고, NLP 연구에서 구축하고 분석하는 시스템의 계산 과정을 설명하는 방식의 중요성을 강조한다.