Este artículo presenta BadPromptFL, el primer ataque de puerta trasera contra el aprendizaje federado basado en indicaciones (PromptFL) en modelos de aprendizaje contrastivo multimodal. BadPromptFL implica que un cliente comprometido optimiza conjuntamente los activadores locales de la puerta trasera y las incrustaciones de indicaciones para inyectar indicaciones maliciosas en el proceso de agregación global. Estas indicaciones maliciosas se propagan posteriormente a clientes benignos, lo que permite la activación universal de la puerta trasera durante la inferencia sin modificar los parámetros del modelo. Aprovechando el comportamiento de aprendizaje contextual de la arquitectura de estilo CLIP, BadPromptFL logra una alta tasa de éxito de ataque (p. ej., >90%) con mínima visibilidad y escasa participación del cliente. Experimentos exhaustivos con diversos conjuntos de datos y protocolos de agregación demuestran la eficacia, el sigilo y la generalización de este ataque, lo que plantea serias dudas sobre la robustez del aprendizaje federado basado en indicaciones en implementaciones reales.