GIFT presenta una técnica de inmunidad con detección de gradientes para defender los modelos de difusión contra ajustes finos maliciosos. Mecanismos de seguridad como los comprobadores de seguridad tradicionales pueden eludirse fácilmente, y los métodos de eliminación de conceptos fallan bajo ajustes finos adversarios. GIFT aborda este problema al enmarcar la inmunización como un problema de optimización de dos niveles. El objetivo principal es utilizar el ruido representacional y la maximización para degradar la capacidad del modelo para representar conceptos dañinos, mientras que el objetivo principal es mantener el rendimiento con datos seguros. GIFT logra una resistencia robusta al ajuste fino malicioso, manteniendo al mismo tiempo la calidad de la generación segura. Los resultados experimentales muestran que el método propuesto reduce significativamente la capacidad del modelo para reaprender conceptos dañinos, manteniendo al mismo tiempo el rendimiento con contenido seguro, lo que sugiere una dirección prometedora para construir modelos generativos intrínsecamente seguros y resistentes a ataques de ajustes finos adversarios.