Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Byzantine-Robust Federated Learning Using Generative Adversarial Networks

Created by
  • Haebom

作者

Usama Zafar, Andr e Teixeira, Salman Toor

概要

本論文は、分散クライアントで生データを共有することなくコラボレーションモデル学習を可能にする連合学習(FL)の堅牢性を向上させる方法を提供します。従来の防御技術は、クライアントの不均一性が大きくなるにつれてエラー下限が増加する堅牢な集約ルールや、ヒューリスティックに依存したり、検証に信頼できる外部データセットを必要とする検出ベースの方法などの根本的な限界を持っています。本稿では、サーバで条件付き生成敵対ニューラルネットワーク(cGAN)を利用してクライアントアップデートを検証するための代表データを合成する防御フレームワークを紹介します。この方法は、外部データセットへの依存を排除​​し、さまざまな攻撃戦略に適応し、標準FLワークフローにシームレスに統合します。ベンチマークデータセットの広範な実験は、提示されたフレームワークが悪意のあるクライアントと良性のクライアントを正確に区別しながら全体的なモデル精度を維持することを示しています。ビザンチンの堅牢性に加えて,合成データの代表性,cGAN訓練の計算コスト,アプローチの透明性と拡張性を調査した。

Takeaways、Limitations

Takeaways:
外部データセットなしでクライアント更新検証を可能にする新しい連合学習防御フレームワークの提示
さまざまなビザンチン攻撃に適応可能で、標準FLワークフローと統合可能
悪意のあるクライアントと良性のクライアントを正確に区別しながらモデルの精度を維持
合成データの代表性、CGANトレーニングコスト、アプローチの透明性、拡張性の分析を提供
Limitations:
CGANトレーニングの計算コストと合成データの代表性に関するさらなる研究が必要
さまざまな種類の攻撃に対する一般化パフォーマンスの追加実験が必要
実環境でのスケーラビリティとパフォーマンス評価が必要
👍