Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Aligning LLMs for Multilingual Consistency in Enterprise Applications

Created by
  • Haebom

作者

Amit Agarwal, Hansa Meghwani, Hitesh Laxmichand Patel, Tao Sheng, Sujith Ravi, Dan Roth

概要

本論文は、大規模言語モデル(LLM)が英語中心の事前訓練と内部推論偏向により高資源言語と中/低資源言語との間の性能格差が大きく、グローバル企業環境で信頼性を確保することが困難になる問題を解決しようとする。特に検索増強生成(RAG)システムでも英語外言語の精度が最大29%まで低下することを観察した。本研究では、各トレーニングバッチで意味的に同じ多言語データを利用して、モデルの出力を言語間で直接ソートする実用的なバッチ単位ソート戦略を提案する。この方法は、英語のパフォーマンス、モデル推論、または検索品質を低下させることなく、英語以外の言語の精度を最大23.9%向上させます。この研究の方法論は、実装が簡単でスケーラブルであり、既存のLLMトレーニングおよび配布パイプラインとシームレスに統合され、業界全体でより堅牢で公平な多言語AIソリューションを可能にします。

Takeaways、Limitations

Takeaways:
英語以外の言語のLLMパフォーマンスの向上(最大23.9%の精度向上)。
英語のパフォーマンス低下なし。
モデル推論と検索品質の維持
実装と統合の容易さ。
産業全体の多言語AIソリューションに貢献
Limitations:
論文に具体的なLimitations言及なし。
👍