本論文は、分散クライアントで生データを共有することなくコラボレーションモデル学習を可能にする連合学習(FL)の堅牢性を向上させる方法を提供します。従来の防御技術は、クライアントの不均一性が大きくなるにつれてエラー下限が増加する堅牢な集約ルールや、ヒューリスティックに依存したり、検証に信頼できる外部データセットを必要とする検出ベースの方法などの根本的な限界を持っています。本稿では、サーバで条件付き生成敵対ニューラルネットワーク(cGAN)を利用してクライアントアップデートを検証するための代表データを合成する防御フレームワークを紹介します。この方法は、外部データセットへの依存を排除し、さまざまな攻撃戦略に適応し、標準FLワークフローにシームレスに統合します。ベンチマークデータセットの広範な実験は、提示されたフレームワークが悪意のあるクライアントと良性のクライアントを正確に区別しながら全体的なモデル精度を維持することを示しています。ビザンチンの堅牢性に加えて,合成データの代表性,cGAN訓練の計算コスト,アプローチの透明性と拡張性を調査した。