본 논문은 대규모 언어 모델(LLM)의 복잡한 다단계 수학 문제 해결 능력의 한계를 극복하기 위해, 자기 진화적 데이터 생성 파이프라인인 SPHERE를 제안합니다. SPHERE는 자기 생성, 자기 수정, 다양성 유도의 세 단계를 통해 소규모 언어 모델(SLM)의 추론 능력을 향상시킵니다. 자체적으로 문제 해결 단계를 구성하고, 오류를 식별 및 수정하며, 다양한 추론 경로를 생성하여 모델의 강건성을 높입니다. MATH 500, GSM8K, AIME, AMC, Olympiad 등의 벤치마크 평가 결과, SPHERE로 훈련된 모델은 기본 모델보다 성능이 크게 향상되었으며, 특정 벤치마크에서는 GPT-4o와 동등하거나 능가하는 성능을 보였습니다. 이는 자기 진화적 모델이 SLM과 최첨단 LLM 간의 추론 능력 차이를 줄일 수 있음을 보여줍니다.