Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

FedSEA-LLaMA: A Secure, Efficient and Adaptive Federated Splitting Framework for Large Language Models

Created by
  • Haebom

作者

Zishuai Zhang, Hainan zhang, Weihua Li, Qinnan zhang, jin Dong, Yongxin Tong, Zhiming Zheng

概要

本論文は、個人データを活用して大規模言語モデル(LLM)の性能を向上させるとともに、データサイロ問題と高い演算要求量を解決するために連合学習環境で使用できるコンバータベースの連合分割モデルであるFedSEA-LLaMAを提案する。 FedSEA-LLaMAは、ほとんどのモデルパラメータをサーバー(または分散クライアント)に配置し、小さな部分のみをクライアントに保持してデータのプライバシーを保証します。既存の連合分割モデルの制限であるP2P暗号化の脆弱性、逐次学習および推論による高い通信オーバーヘッド、固定された分割点の問題を解決するために、ガウスノイズ注入による安全なベクトル伝送、アテンションマスク圧縮およびKVキャッシュコラボレーションによる通信コストの削減、およびユーザーによる動的分割点調整機能を提示する。自然言語の理解、要約、インタラクティブなクエリ応答操作の実験結果、FedSEA-LLaMAは、集中型LLaMA2と比較して、パフォーマンスを低下させることなく最大8倍の学習と推論速度の向上を達成することを示しています。さらに、プライバシー攻撃分析とさまざまな分割点分析により、セキュリティと適応性が実証されています。

Takeaways、Limitations

Takeaways:
個人データを活用したLLMパフォーマンスの向上とデータのプライバシー保証を同時に達成する新しい連合学習フレームワークの提示。
既存の連合分割モデルの3つの主要なLimitations(P2P暗号化、逐次処理、固定分割点)を効果的に解決。
自然言語の理解、要約、インタラクティブなクエリ応答など、さまざまな作業で集中型LLaMA2に匹敵する性能と最大8倍の速度向上を達成。
動的分割点調整により、特定の作業要件に合った適応性を確保します。
Limitations:
提案された方法の実際の環境適用可能性とスケーラビリティに関するさらなる研究の必要性
さまざまなデータ分布とネットワーク環境に対するロバスト性評価が必要
ガウス雑音注入による性能劣化と最適雑音レベルの設定に関するさらなる研究が必要
特定のハードウェア環境の最適化研究が必要
👍