본 논문은 대규모 언어 모델(LLM)의 복잡한 문제 해결 능력 향상을 위한 두 가지 새로운 전략, 적응적 난이도 커리큘럼 학습(ADCL)과 전문가 지도 자기 재구성(EGSR)을 제안합니다. ADCL은 모델의 능력 변화에 따라 난이도를 재평가하여 훈련 중 난이도 변화 문제를 해결하는 커리큘럼 학습 전략입니다. EGSR은 모방 학습과 순수 탐색 간의 간극을 메우는 강화 학습 전략으로, 모델이 전문가 솔루션을 직접 모방하는 대신 자신의 개념적 틀 내에서 재구성하도록 유도하여 더 깊은 이해와 지식 흡수를 촉진합니다. Qwen2.5-7B 모델을 기반으로 한 실험 결과, 두 전략은 상승적으로 성능을 향상시키며, AIME24 벤치마크에서 10%, AIME25 벤치마크에서 16.6%의 성능 향상을 보였습니다.