Shojaee et al. (2025)의 연구는 대규모 추론 모델(LRMs)이 특정 복잡도 임계값을 넘는 계획 퍼즐에서 "정확도 붕괴"를 보인다고 주장하지만, 본 연구는 이러한 결과가 주로 실험 설계의 한계를 반영하는 것이지 근본적인 추론 실패를 반영하는 것이 아님을 보여줍니다. 세 가지 주요 문제점으로 토론이 제한되는 토큰 수 문제, 자동 평가 프레임워크의 오류, 수학적으로 불가능한 문제 포함 등을 지적하며, 생성 함수 요청을 통해 실험적 오류를 통제했을 때 높은 정확도를 보였다는 초기 실험 결과를 제시합니다. 이는 AI 추론 능력 평가 시 신중한 실험 설계의 중요성을 강조합니다.