Cet article propose une nouvelle méthode d'attaque par inférence d'appartenance (AIA) permettant de déterminer si une image spécifique est incluse dans les données d'apprentissage d'un modèle de diffusion, résolvant ainsi les problèmes de droits d'auteur liés aux images générées par l'IA. Pour pallier les limitations des méthodes AIA existantes nécessitant l'accès au réseau U-net interne du modèle, nous proposons une méthode utilisant uniquement l'API de transformation d'image à image pour déterminer si les données d'apprentissage sont incluses sans accéder à la structure interne du modèle. Cette méthode exploite la facilité avec laquelle le modèle peut obtenir des prédictions bruitées pour les données d'apprentissage. Par conséquent, la méthode moyenne les résultats à l'aide de l'API plusieurs fois et les compare à l'image d'origine. Des expériences sur les architectures DDIM, Stable Diffusion et Diffusion Transformer démontrent que notre méthode surpasse les méthodes existantes.