Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Adaptive Rank Allocation for Federated Parameter-Efficient Fine-Tuning of Language Models

Created by
  • Haebom

作者

Fei Wu, Jia Hu, Geyong Min, Shiqiang Wang

概要

本論文は、分散環境における事前訓練された言語モデル(PLM)のパラメータ効率的な微調整(PEFT)の_____ T2184_____を解決するための新しい適応型クラス割り当てフレームワークであるFedARAを提案します。 FedARAは、Truncated SVDを使用してデバイス間のデータの不均一性によるパフォーマンスの低下を軽減するために同様の特徴表現を改善し、通信効率を向上させるために動的階層割り当てを利用し、計算コストとメモリ使用量を削減するために階級ベースのモジュール分岐を適用します。さまざまなデータセットとモデルの実験の結果、FedARAは従来の方法より平均6.95%〜8.49%向上したパフォーマンスを示し、通信効率も2.40倍向上しました。さらに、さまざまなエッジデバイスでの実験により、トレーニング時間とエネルギー消費量が最大48.90%および46.95%減少することが確認されました。

Takeaways、Limitations

Takeaways:
FedARAは、不均一なデータ分布を持つ分散環境におけるPLMのパラメータ効率的な微調整性能を向上させます。
動的階層割り当てと階級ベースのモジュール剪定により、通信効率とリソース使用効率が大幅に向上します。
エッジデバイスでのトレーニング時間とエネルギー消費量を大幅に削減します。
Limitations:
この論文で提示されているFedARAのパフォーマンスの向上は、特定のデータセットとモデルに限定される可能性があります。より多様な環境でのさらなる実験が必要です。
Truncated SVDと動的ランク割り当ての最適なパラメータ設定は、データセットとモデルによって異なり、自動化された方法が必要になる場合があります。
ランクベースのモジュール剪定の効果は剪定比に敏感であり、最適な剪定比を決定することが重要です。
👍