Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Vers une attaque par inférence d'appartenance en boîte noire pour les modèles de diffusion

Created by
  • Haebom

Auteur

Jingwei Li, Jing Dong, Tianxing He, Jingzhao Zhang

Contour

Cet article propose une nouvelle méthode d'attaque par inférence d'appartenance (AIA) permettant de déterminer si une image spécifique est incluse dans les données d'apprentissage d'un modèle de diffusion, résolvant ainsi les problèmes de droits d'auteur liés aux images générées par l'IA. Pour pallier les limitations des méthodes AIA existantes nécessitant l'accès au réseau U-net interne du modèle, nous proposons une méthode utilisant uniquement l'API de transformation d'image à image pour déterminer si les données d'apprentissage sont incluses sans accéder à la structure interne du modèle. Cette méthode exploite la facilité avec laquelle le modèle peut obtenir des prédictions bruitées pour les données d'apprentissage. Par conséquent, la méthode moyenne les résultats à l'aide de l'API plusieurs fois et les compare à l'image d'origine. Des expériences sur les architectures DDIM, Stable Diffusion et Diffusion Transformer démontrent que notre méthode surpasse les méthodes existantes.

Takeaways, Limitations

Takeaways:
Une nouvelle méthode pour attaquer l’inférence d’appartenance sur les données d’entraînement des modèles de diffusion est présentée.
Les attaques sont possibles en utilisant uniquement l'API sans accéder à la structure interne du modèle.
Efficace dans diverses architectures telles que DDIM, Stable Diffusion et Diffusion Transformer.
Meilleures performances que les méthodes existantes
Limitations:
L'accès à l'API doit être activé. Si l'accès à l'API est restreint, les attaques sont impossibles.
Cela peut dépendre des caractéristiques spécifiques d'une API spécifique. L'utilisation d'autres API peut entraîner une dégradation des performances.
Le taux de réussite de l’attaque peut être affecté par divers facteurs, tels que la structure du modèle, la taille des données de formation et les caractéristiques de l’API.
👍