본 논문은 다국어 음성-텍스트(S2T) 작업에서 언어 다양성 문제를 해결하기 위해 저계급 및 희소 모델 병합(LoRS-Merging) 기법을 제안합니다. 기존의 다국어 다중 작업 학습 방식은 여러 언어에 걸쳐 여러 음성 인식 및 번역 작업을 공동으로 최적화하는 것을 목표로 하지만, 높은 계산 비용, 언어 간섭, 최적이 아닌 학습 구성, 확장성 제한 등의 문제점이 있습니다. LoRS-Merging은 저계급 및 희소 가지치기를 결합하여 필수 구조는 유지하면서 중복 매개변수를 제거하여 언어 간섭을 완화하고 확장성을 향상시킵니다. 10개 언어에 대한 실험 결과, LoRS-Merging은 다국어 다중 작업 학습, 순차 학습 및 기타 병합 방법보다 성능이 20% 이상 향상됨을 보여줍니다. 따라서 LoRS-Merging은 S2T 애플리케이션을 위한 기존의 다국어 학습 전략에 대한 확장 가능하고 효과적인 보완책임을 시사합니다.