본 논문은 대규모 언어 모델(LLM)의 추론 능력 향상을 위한 새로운 프레임워크인 PIR(Perplexity-based Importance Refinement)을 제시합니다. 기존의 사고연쇄(CoT) 데이터는 추론 과정에서 필수적인 진행적 추론과 검증, 대안 탐색 등의 기능적 요소를 모두 포함하여 계산 비용이 높다는 한계가 있습니다. PIR은 각 추론 단계의 중요도를 정량적으로 평가하여, 답변 예측 신뢰도에 영향이 적은 기능적 요소들을 선택적으로 제거함으로써, 핵심 해결 경로는 유지하면서도 추론 과정의 간결성을 높입니다. 실험 결과, PIR로 최적화된 데이터로 미세 조정된 모델은 다양한 추론 벤치마크(AIME, AMC, GPQA Diamond)에서 정확도 향상(+0.9%+6.6%)과 토큰 사용량 감소(-3%-41%)를 동시에 달성하여, 테스트 시간 확장성과 계산 효율성을 크게 개선했습니다. 모델 크기, 데이터 소스, 토큰 예산에 관계없이 일반화 성능이 우수하다는 점도 확인되었습니다.