Este artículo presenta BadPromptFL, un novedoso ataque de puerta trasera contra el aprendizaje federado basado en indicaciones (PromptFL) en modelos de aprendizaje contrastivo multimodal. BadPromptFL inyecta indicaciones maliciosas en el proceso de agregación global mediante la optimización conjunta de los activadores locales de la puerta trasera y la incrustación de indicaciones por parte de clientes comprometidos. Estas indicaciones maliciosas se propagan posteriormente a clientes benignos, lo que permite la activación universal de la puerta trasera durante la inferencia sin modificar los parámetros del modelo. Aprovechando el comportamiento de aprendizaje contextual de una arquitectura de tipo CLIP, BadPromptFL logra una alta tasa de éxito de ataque (p. ej., >90%) con mínima visibilidad y una participación limitada del cliente. Amplios experimentos con diversos conjuntos de datos y protocolos de agregación demuestran la efectividad, el sigilo y la generalización del ataque, lo que plantea serias dudas sobre la robustez del aprendizaje federado basado en indicaciones en implementaciones reales.