この論文は、多言語音声テキスト(S2T)操作における言語多様性の問題を解決するために、低レベルおよび希少モデルマージ(LoRS-Merging)技術を提案します。従来の多言語多作業学習方式は、複数の言語にわたって複数の音声認識と翻訳作業を共同で最適化することを目指していますが、高い計算コスト、言語干渉、非最適学習構成、拡張性制限などの問題があります。 LoRS-Mergingは低階級と希少な剪定を組み合わせて、必須構造を維持しながら冗長パラメータを排除し、言語干渉を軽減し、スケーラビリティを向上させます。 10言語の実験結果、LoRS-Mergingは、多言語マルチタスク学習、逐次学習、および他のマージ方法よりも20%以上のパフォーマンスが向上することを示しています。したがって、LoRS-Mergingは、S2Tアプリケーションのための既存の多言語学習戦略のスケーラブルで効果的な補完責任を示唆しています。