본 논문은 대규모 언어 모델(LLM)의 복잡한 추론 능력 향상을 위해 문제 해결 논리에 기반한 커리큘럼 형태의 In-context learning (ICL) 전략을 제안한다. 기존 ICL 방법들이 단순한 특징을 사용하여 예시 간의 관련성을 측정한 것과 달리, 본 연구는 문제 해결 논리를 분석하여 예시를 선택하고, 커리큘럼 학습에 따라 순서를 정한다. BREAK 데이터셋을 기반으로 문제 해결 논리 명령어 집합을 구성하고, 언어 모델을 미세 조정하여 예시의 문제 해결 논리를 분석한다. 문제 해결 단계 수에 따라 예시의 난이도를 평가하고, 쉬운 것부터 어려운 것 순서로 예시를 배열하여 문맥 프롬프트로 활용한다. 실험 결과, 여러 벤치마크에서 기존 ICL 접근 방식보다 성능과 효율성 면에서 우수한 결과를 보이며 LLM의 복잡한 추론 능력 향상에 효과적임을 입증한다.