본 논문은 대규모 추론 모델(LRM)의 과도한 상세 추론 과정으로 인한 비효율성 문제를 해결하기 위해, 추론 과정 생성 중에 간결한 표현을 유도하는 ConciseHint 프레임워크를 제안합니다. ConciseHint는 수동 설계 또는 간결한 데이터로 학습된 텍스트 기반의 힌트를 토큰 생성 과정에 지속적으로 주입하여 모델이 간결하게 추론하도록 유도합니다. 또한 질의의 복잡도에 따라 힌트 강도를 조절하여 모델 성능 저하를 방지합니다. DeepSeek-R1 및 Qwen-3 시리즈와 같은 최첨단 LRM에 대한 실험 결과, ConciseHint는 성능 저하 없이 추론 과정의 길이를 효과적으로 줄일 수 있음을 보여줍니다. 예를 들어, Qwen-3 4B 모델을 사용하여 GSM8K 벤치마크에서 추론 길이를 65% 감소시키면서 정확도는 거의 유지했습니다.