Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

BadPromptFL: A Novel Backdoor Threat to Prompt-based Federated Learning in Multimodal Models

Created by
  • Haebom

作者

Maozhen Zhang, Mengnan Zhao, Bo Wang

概要

この論文は、マルチモーダル対照学習モデルにおけるプロンプトベースの連合学習(PromptFL)に対する新しいバックドア攻撃であるBadPromptFLを提示します。 BadPromptFLは、破損したクライアントがローカルバックドアトリガーとプロンプト埋め込みを共同で最適化し、グローバル集約プロセスに悪意のあるプロンプトを注入する方法です。この悪意のあるプロンプトはポジティブクライアントに伝播され、モデルパラメータを変更せずに推論時にユニバーサルバックドアを有効にすることができます。 CLIPスタイルアーキテクチャのコンテキスト学習動作を活用して、BadPromptFLは最小限の可視性と限られたクライアントエンゲージメントで高い攻撃成功率(> 90%など)を達成します。さまざまなデータセットと集約プロトコルの広範な実験を通じて、攻撃の効果、秘密性、および一般化の可能性を検証し、実際の展開でプロンプトベースの連合学習の堅牢性について深刻な懸念を提示します。

Takeaways、Limitations

Takeaways:プロンプトベースの連合学習のセキュリティ脆弱性を最初に明らかにし、BadPromptFLという効果的で秘密のバックドア攻撃技術を提示することによって、実際の環境でのプロンプトベースの連合学習システムのセキュリティ強化の必要性を強調します。 CLIPスタイルのアーキテクチャの特徴を悪用した攻撃技術は、他の同様のモデルにも適用可能性を示唆しています。
Limitations:現在提示されているBadPromptFL攻撃に対する防御手法は論文では扱われていません。様々な防御技術の研究がさらに必要である。特定のデータセットとモデルアーキテクチャの実験結果であるため、他の環境での一般化の可能性に関する追加の研究が必要です。
👍