본 논문은 영어 이외의 언어에 대한 특정 작업 데이터가 부족한 상황에서 대규모 언어 모델(LLM)을 미세 조정하는 어려움을 해결하는 모델 병합 방법론을 제시합니다. 수학적 추론에 초점을 맞춰, 영어로 된 수학 지시 데이터와 대상 언어로 된 일반적인 지시 데이터를 사용하여 각각의 전문가 모델을 미세 조정합니다. 그런 다음 수학 전문가 모델의 상단과 하단 트랜스포머 계층을 언어 전문가 모델의 계층으로 직접 교체하여 대상 언어의 수학 성능을 향상시킵니다. 이 방법은 제한된 수학 지시 데이터를 가진 4개 주요 언어에서 MGSM 수학 벤치마크에서 개별 전문가 모델 및 다른 병합 방법보다 10% 향상된 성능을 보였습니다. 이 계층 교체 방법은 간단하고 비용 효율적이며 직관적이며, 각 전문가 모델의 미세 조정 중 가장 중요한 매개변수 변화에 대한 해석적 분석을 기반으로 합니다. 이러한 방식으로 LLM을 성공적으로 재구성하여 교차 언어 전이를 수행하는 능력은 향후 모델 전문 지식을 결합하고, 모듈식 솔루션을 만들고, 추론 능력을 여러 언어로 전이하는 사후적 가능성을 열어줍니다.