본 논문은 대규모 언어 모델(LLM)의 수학적 추론 능력 향상을 위해 추론 시 추가적인 계산 자원을 할당하는 Test-time compute scaling 방식을 제안한다. 기존의 균일한 자원 할당 방식의 한계를 극복하기 위해, 본 연구에서는 Sub-problem의 난이도에 따라 자원을 선택적으로 할당하는 SCALE(Selective Resource Allocation) 프레임워크를 제안한다. SCALE은 문제 분해, 난이도 평가, 선택적 처리 모드 할당, 순차적 실행 단계를 거쳐, 어려운 sub-problem에 집중하여 자원을 사용함으로써 성능을 향상시키고 계산 비용을 절감한다.