Cet article propose CopyrightShield, un cadre de défense contre les attaques de violation de droits d'auteur sur les modèles de diffusion. Il se concentre sur les attaques où les attaquants injectent intentionnellement des images non protégées par le droit d'auteur dans les données d'entraînement, induisant ainsi la génération de contenu contrefaisant pour des invites spécifiques. CopyrightShield analyse le mécanisme de mémoire du modèle de diffusion et révèle que l'attaque exploite le surapprentissage à des emplacements spatiaux et des invites spécifiques. Il propose ensuite une méthode de détection des échantillons toxiques utilisant le masquage spatial et l'imputation des données. De plus, il réduit la dépendance aux caractéristiques de violation de droits d'auteur et maintient les performances de génération grâce à une stratégie d'optimisation adaptative qui intègre des termes de pénalité dynamiques dans la perte d'entraînement. Les résultats expérimentaux montrent que CopyrightShield améliore significativement les performances de détection des échantillons toxiques dans deux scénarios d'attaque, atteignant un score F1 moyen de 0,665, un délai de première attaque (FAE) de 115,2 % et une réduction de 56,7 % du taux de violation de droits d'auteur (CIR). Cela représente une amélioration de 25 % par rapport à la défense existante la plus performante.