본 논문은 사고연쇄(Chain-of-Thought, CoT) 프롬프팅이 다단계 추론을 요구하는 작업에서 대규모 언어 모델(LLM)의 성능을 향상시킨다는 기존 연구 결과에 대해 이론적 반박을 제시한다. CoT가 LLM에 진정한 추상적 추론 능력을 불러일으키는 것이 아니라, 강력한 구조적 제약으로 작용하여 추론 형태를 모방하게 한다는 주장이다. 즉, 중간 단계 생성을 강제함으로써 LLM의 막대한 시퀀스 예측 및 패턴 매칭 능력을 활용하여 일관된 사고 과정과 유사한 시퀀스로 출력을 제한한다는 것이다.