본 논문은 대규모 언어 모델(LMs)의 성능을 극대화하기 위해 다양한 데이터셋을 혼합하여 미세 조정하는 과정에서 효율적인 데이터셋 조합을 찾는 데 어려움이 있음을 지적합니다. 기존의 방법들은 휴리스틱과 시행착오를 통해 최적의 조합을 찾아야 하므로 여러 번의 미세 조정이 필요합니다. 이에 본 논문은 $\textit{Merge to Mix}$ 라는 새로운 방법을 제안합니다. $\textit{Merge to Mix}$는 여러 개의 개별적으로 미세 조정된 LMs를 간단한 산술 연산을 통해 하나의 LM으로 결합하는 모델 병합 기술을 활용하여, 각 데이터셋으로 개별 미세 조정된 모델들을 병합함으로써 전체 데이터셋 혼합으로 미세 조정된 모델을 효과적으로 대체합니다. 이를 통해 각 후보 혼합에 대한 완전한 미세 조정 없이 데이터셋 혼합을 빠르게 선택할 수 있습니다. 실험 결과, $\textit{Merge to Mix}$는 기존의 최첨단 방법보다 LMs 미세 조정을 위한 데이터셋 선택에서 우수한 성능을 보입니다.