Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

BadPromptFL: Una nueva amenaza de puerta trasera para el aprendizaje federado basado en indicaciones en modelos multimodales

Created by
  • Haebom

Autor

Maozhen Zhang, Mengnan Zhao, Wei Wang, Bo Wang

Describir

Este artículo presenta BadPromptFL, el primer ataque de puerta trasera contra el aprendizaje federado basado en indicaciones (PromptFL) en modelos de aprendizaje contrastivo multimodal. BadPromptFL implica que un cliente comprometido optimiza conjuntamente los activadores locales de la puerta trasera y las incrustaciones de indicaciones para inyectar indicaciones maliciosas en el proceso de agregación global. Estas indicaciones maliciosas se propagan posteriormente a clientes benignos, lo que permite la activación universal de la puerta trasera durante la inferencia sin modificar los parámetros del modelo. Aprovechando el comportamiento de aprendizaje contextual de la arquitectura de estilo CLIP, BadPromptFL logra una alta tasa de éxito de ataque (p. ej., >90%) con mínima visibilidad y escasa participación del cliente. Experimentos exhaustivos con diversos conjuntos de datos y protocolos de agregación demuestran la eficacia, el sigilo y la generalización de este ataque, lo que plantea serias dudas sobre la robustez del aprendizaje federado basado en indicaciones en implementaciones reales.

Takeaways, Limitations

Takeaways: Revelamos una vulnerabilidad de seguridad en el aprendizaje federado basado en indicaciones y proponemos una nueva técnica de ataque de puerta trasera, BadPromptFL, que sugiere líneas de investigación para garantizar la seguridad de sistemas reales. También demostramos la eficacia de un ataque que aprovecha las características de aprendizaje contextual de la arquitectura de estilo CLIP.
Limitations: Falta investigación sobre técnicas de defensa contra la técnica de ataque propuesta actualmente. Se requiere más investigación para determinar la generalización del ataque a diversos tipos de modelos multimodales y entornos de aprendizaje federado. Los resultados experimentales limitados a conjuntos de datos y entornos específicos podrían limitar la generalización de la eficacia del ataque a otros entornos.
👍