본 논문은 대규모 언어 모델(LLM)의 수학적 추론 능력 향상을 위한 새로운 프레임워크인 MetaLadder를 제안합니다. 기존의 사고 과정(CoT) 기반 방법들은 문제에 대한 답을 직접 생성하는 반면, MetaLadder는 인간의 문제 해결 전략을 모방하여 유사 문제(메타 문제)와 그 해결 과정을 먼저 고려하도록 LLM을 유도합니다. 구체적으로, 구조적 또는 의미적으로 유사한 메타 문제와 해결 과정을 상기시키고, 문제 재진술 메커니즘을 통해 모델의 문제 이해도를 높여 추론 정확도를 향상시킵니다. 수학적 벤치마크에 대한 실험 결과, MetaLadder는 기존 CoT 기반 방법보다 10.3%의 정확도 향상을 보이며 우수한 성능을 입증했습니다. 코드와 데이터는 공개되어 있습니다.