Este artículo aborda cómo los recientes avances en la generación de imágenes mediante modelos de difusión condicional basados en texto a gran escala presentan oportunidades de ataque inexploradas para sesgar las imágenes generadas por adversarios con fines maliciosos (p. ej., manipulación de la opinión pública y propaganda). Exploramos un vector de ataque que permite a un adversario inyectar sesgos arbitrarios en un modelo objetivo mediante una técnica de backdooring de bajo coste que utiliza activadores específicos de lenguaje natural contenidos en una pequeña muestra de datos maliciosos generados por modelos generados públicamente. El adversario puede seleccionar secuencias de palabras comunes que los usuarios pueden activar involuntariamente durante la inferencia. Experimentos exhaustivos con más de 200.000 imágenes generadas y cientos de modelos optimizados demuestran la viabilidad del ataque de backdoor propuesto, destacando que estos sesgos mantienen una sólida alineación texto-imagen y la dificultad de detectar imágenes sesgadas sin conocimiento previo del sesgo. El análisis de costes confirma la baja barrera financiera para ejecutar estos ataques (entre 10 y 15 dólares), lo que enfatiza la necesidad de estrategias de defensa robustas contra estas vulnerabilidades en los modelos de difusión.