본 논문은 대규모 언어 모델(LLM)의 추론 과정에서 과도하게 긴 응답을 생성하는 문제점을 해결하기 위해, 정확도를 유지하면서 추론 과정을 조기에 종료하는 방법인 FlashThink를 제안합니다. FlashThink는 검증 모델을 활용하여 모델이 정답을 생성할 수 있는 시점을 정확히 파악하고, 그 시점에 추론 과정을 중단함으로써 추론 내용의 길이를 단축시킵니다. 실험 결과, Deepseek-R1과 QwQ-32B 모델에서 추론 내용 길이를 각각 77.04%와 77.47% 감소시키면서 정확도를 유지하는 것을 확인했습니다.