본 논문은 대규모 언어 모델(LLM)의 복잡한 문제 해결 능력 향상을 위한 두 가지 새로운 전략, 적응적 난이도 커리큘럼 학습(ADCL)과 전문가 유도 자기 재구성(EGSR)을 제안합니다. ADCL은 모델의 능력 변화에 따라 난이도를 재평가하여 학습 과정에서 난이도 변화 현상을 해결하는 커리큘럼 학습 전략입니다. EGSR은 모방 학습과 순수 탐색의 간극을 해소하기 위해 전문가 솔루션을 모델의 개념적 틀 내에서 재구성하도록 유도하는 강화 학습 전략으로, 더 깊은 이해와 지식 흡수를 촉진합니다. Qwen2.5-7B 모델을 기반으로 한 실험 결과, 제안된 두 전략은 상승적으로 성능을 향상시키며, AIME24 벤치마크에서 10%, AIME25 벤치마크에서 16.6%의 성능 향상을 보였습니다.