Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

CopyrightShield: Enhancing Diffusion Model Security against Copyright Infringement Attacks

Created by
  • Haebom

作者

Zhixiang Guo, Siyuan Liang, Aishan Liu, Dacheng Tao

概要

本論文は、拡散モデルの著作権侵害攻撃に対する防御フレームワークであるCopyrightShieldを提案する。攻撃者が訓練データに意図的に修正された著作権侵害しない画像を注入し、特定のプロンプトに対する著作権侵害コンテンツの生成を誘導する攻撃に焦点を当てる。 CopyrightShield は、拡散モデルの記憶メカニズム分析により、攻撃が特定の空間位置とプロンプトに対する過適合を悪用することを明らかにし、空間マスキングとデータ帰属を用いた中毒サンプルの検出方法を提案する。さらに、動的ペナルティ項を訓練損失に組み込む適応最適化戦略により、著作権侵害機能への依存性を低減し、生成性能を維持する。実験の結果、CopyrightShieldは2つの攻撃シナリオで中毒サンプル検出性能を大幅に向上させ、平均F1スコア0.665、初攻撃時代(FAE)遅延115.2%、著作権侵害率(CIR)減少56.7%を達成した。従来最高性能の防御より約25%向上した効果を見せた。

Takeaways、Limitations

Takeaways:
拡散モデルの著作権侵害攻撃に対する効果的な防御フレームワークであるCopyrightShieldの提示。
空間マスキングとデータ帰属を用いた中毒サンプル検出法の有効性証明
適応最適化戦略による著作権侵害機能依存性の低減と生成性能の維持可能性の提示
従来の最高性能防御に対して25%向上した防御効果を確認。
Limitations:
提案された防御の一般化性能に関するさらなる研究が必要である。
さまざまな種類の著作権侵害攻撃に対するロバースト性評価が必要です。
実際の環境を適用するときに発生する可能性のある問題と解決策を探す必要があります。
👍