본 논문은 대규모 언어 모델(LLM)의 수학적 추론 능력 향상을 위해, 문제 간의 관계적 구조를 활용하는 새로운 프레임워크인 MathFusion을 제안합니다. MathFusion은 순차적, 병렬적, 조건적 세 가지 융합 전략을 통해 관련 문제들을 통합하여 새로운 데이터셋 MathFusionQA를 생성합니다. DeepSeekMath-7B, Mistral-7B, Llama3-8B 모델들을 MathFusionQA로 미세 조정한 결과, 기존 단일 문제 접근 방식에 비해 훨씬 적은 데이터(45K 추가 합성 지시)로 정확도를 18.0% 향상시키는 것을 확인했습니다. 소스 코드와 데이터셋은 공개적으로 제공됩니다.