Este artículo propone CopyrightShield, un marco de defensa contra ataques de infracción de derechos de autor en modelos de difusión. Se centra en ataques en los que los atacantes inyectan intencionalmente imágenes sin derechos de autor en los datos de entrenamiento, lo que induce la generación de contenido que infringe los derechos de autor para indicaciones específicas. CopyrightShield analiza el mecanismo de memoria del modelo de difusión para revelar que el ataque explota el sobreajuste a ubicaciones espaciales e indicaciones específicas. Posteriormente, propone un método para detectar muestras tóxicas mediante enmascaramiento espacial e imputación de datos. Además, reduce la dependencia de las características de infracción de derechos de autor y mantiene el rendimiento de la generación mediante una estrategia de optimización adaptativa que incorpora términos de penalización dinámicos en la pérdida de entrenamiento. Los resultados experimentales muestran que CopyrightShield mejora significativamente el rendimiento de la detección de muestras tóxicas en dos escenarios de ataque, logrando una puntuación F1 promedio de 0,665, un retraso en la Era del Primer Ataque (FAE) del 115,2 % y una reducción del 56,7 % en la Tasa de Infracción de Derechos de Autor (CIR). Esto representa una mejora del 25 % con respecto a la defensa existente de mejor rendimiento.