Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Towards Black-Box Membership Inference Attack for Diffusion Models

Created by
  • Haebom

作者

Jingwei Li, Jing Dong, Tianxing He, Jingzhao Zhang

概要

この論文は、AI生成画像の著作権問題に関して、拡散モデルの学習データに特定の画像が含まれているかどうかを判断する新しいメンバーシップ推論攻撃(MIA)方法を提案します。既存のMIAメソッドがモデルの内部U-netにアクセスする必要がある限界を克服するために、画像 - 画像変換APIのみを使用してモデル内部構造にアクセスすることなく学習データかどうかを決定する方法を提示します。この方法は、モデルが学習データに対してより簡単にノイズ予測を得ることができることに着目し、APIを複数回使用して結果を平均化し、元の画像と比較して決定します。 DDIMとStable Diffusion、Diffusion Transformerアーキテクチャでの実験により、従来の方法より優れた性能を示すことが確認されました。

Takeaways、Limitations

Takeaways:
拡散モデルの学習データに対するメンバーシップ推論攻撃の新しい方法の提示
モデル内部構造へのアクセスなしでAPIのみで攻撃可能
DDIM、Stable Diffusion、Diffusion Transformerなど、さまざまなアーキテクチャで効果的
従来の方法より優れた性能
Limitations:
APIアクセスが可能でなければなりません。 APIアクセスが制限されていると攻撃できません。
特定のAPIの特性に依存する可能性があります。他のAPIを使用している場合のパフォーマンスの低下の可能性。
攻撃の成功率は、モデルの構造、学習データサイズ、APIの特性など、さまざまな要因によって影響を受ける可能性があります。
👍