본 논문은 대규모 언어 모델(LLM)의 추론 과정에서 긴 "사고" 체인이 항상 더 나은 성능을 보장하는 것은 아니라는 점을 지적합니다. 연구진은 개별 질문에 대한 짧은 사고 체인이 더 높은 정확도를 보이는 것을 실험적으로 증명하고(최대 34.5% 향상), 이를 바탕으로 새로운 추론 LLM 추론 방법인 short-m@k를 제안합니다. short-m@k는 독립적인 여러 사고 과정을 병렬로 실행하고, m개의 과정이 완료되면 멈추는 방식으로, 과도한 계산 비용을 줄이며(최대 40% 감소) 정확도를 향상시킵니다. 더 나아가 짧은, 긴, 그리고 무작위로 선택된 사고 체인으로 LLM을 미세 조정한 결과, 짧은 사고 체인으로 학습한 모델이 더 나은 성능을 보임을 확인했습니다. 결론적으로, 논문은 LLM 추론에서의 계산 시간 최적화를 위한 새로운 관점을 제시하며, 긴 사고 체인이 항상 최선의 선택이 아님을 강조합니다.