Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Federated Data-Efficient Instruction Tuning for Large Language Models

Created by
  • Haebom

作者

Zhen Qin, Zhaomin Wu, Bingsheng He, Shuiguang Deng

概要

この論文は、事前訓練された巨大言語モデル(LLM)の命令に対する反応性を向上させるための重要なステップである命令のチューニングについて説明します。連合学習(FL)は、クライアントの膨大な個人命令データの活用を支援し、データの多様性を改善し、LLMチューニングに効果的です。従来のフェデレーションチューニングは、すべてのローカルデータを使用して過度の計算オーバーヘッドとローカルデータの過適合を引き起こしますが、集中型のデータ効率的なソリューションはプライバシーの問題のためにFLには適していません。本論文ではFedHDSと呼ばれる連合データ効率的な命令チューニング方法を提示した。 FedHDS は、エッジ側のデータの代表的なサブセットを使用して LLM をチューニングし、生データを共有せずにクライアント内部とクライアント間のデータ冗長性を低減します。さまざまなLLM、データセット、およびスプリットを使用した実験の結果、FedHDSは最先端のフルデータフェデレーション命令のチューニング方法よりも未知の作業でRouge-Lを平均10.72%向上させ、同時に1.5%未満のデータサンプルを使用してトレーニング効率を最大10倍に向上させることを示しています。

Takeaways、Limitations

Takeaways:
連合学習環境におけるデータ効率的な命令チューニングのための新しい方法(FedHDS)の提示
従来方式と比較してRouge-Lの性能向上とトレーニング効率の向上(データ使用量の削減)
プライバシーの懸念の解消とデータの多様性の確保
Limitations:
提示された方法の一般化性能に関するさらなる研究の必要性
さまざまなLLMとデータセットのより広範な実験が必要
実際の環境を適用するときに発生する可能性のある問題と解決策に関する追加の研究が必要
👍