본 논문은 대규모 언어 모델(LLM)의 복잡한 추론 능력을 향상시키기 위해 문제 해결 논리에 기반한 커리큘럼 학습 전략을 제시합니다. 기존의 In-context learning (ICL) 방법들이 단순한 특징을 사용하여 예시의 관련성을 측정한 것과 달리, 본 연구는 문제 해결 논리를 분석하여 예시를 선택하고 순서를 정합니다. BREAK 데이터셋을 기반으로 문제 해결 논리 명령어 집합을 구성하고, 언어 모델을 미세 조정하여 예시의 문제 해결 논리를 분석합니다. 문제 해결 단계의 수에 따라 예시의 난이도를 평가하고, 쉬운 것부터 어려운 것 순서로 예시를 배열하여 문맥 프롬프트로 사용합니다. 여러 벤치마크에 대한 실험 결과, 제안된 방법이 기존 ICL 접근 방식보다 성능과 효율성 면에서 우수하며, LLM의 복잡한 추론 능력을 효과적으로 향상시키는 것을 보여줍니다. 소스 코드는 깃허브에 공개될 예정입니다.