Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Secuestro de pantalla: envenenamiento visual de agentes VLM en entornos móviles

Created by
  • Haebom

Autor

Xuan Wang, Siyuan Liang, Zhe Liu, Yi Yu, Yuliang Lu, Xiaochun Cao, Ee-Chien Chang, Xitong Gao

Describir

En este artículo, presentamos GHOST, el primer ataque de puerta trasera de etiqueta limpia contra un agente móvil basado en el Modelo de Lenguaje de Visión (VLM). GHOST inyecta comportamiento malicioso en el modelo manipulando únicamente algunas entradas visuales de un conjunto de datos generado por el usuario (sin modificar etiquetas ni instrucciones). Cuando se introduce un disparador visual específico durante la inferencia, el atacante controla la respuesta. Para lograrlo, alineamos los gradientes de las muestras envenenadas con los gradientes de las instancias objetivo, incorporando así características relacionadas con la puerta trasera a los datos de entrenamiento envenenados. Para mejorar el sigilo y la robustez, desarrollamos tres disparadores visuales realistas: parches visuales estáticos, señales de movimiento dinámicas y superposiciones sutiles de baja opacidad. Evaluamos nuestro ataque en seis aplicaciones Android reales y tres arquitecturas VLM móviles, logrando altas tasas de éxito (hasta un 94,67 %) y un alto rendimiento en tareas normales (hasta un 95,85 %). También realizamos experimentos para analizar el impacto de diversas decisiones de diseño en la efectividad y el sigilo del ataque. Este estudio expone primero serias vulnerabilidades de seguridad en los agentes móviles basados ​​en VLM y resalta la urgente necesidad de mecanismos de defensa efectivos en el proceso de entrenamiento.

Takeaways, Limitations

Takeaways:
Presentamos por primera vez la posibilidad de un ataque de puerta trasera de etiqueta limpia en un agente móvil basado en VLM.
Se demostró experimentalmente una alta tasa de éxito y sigilo del ataque GHOST.
Destaca la necesidad de fortalecer la seguridad del proceso de entrenamiento de agentes móviles.
Presenta disparadores visuales realistas (superposiciones estáticas, dinámicas y de baja opacidad).
Limitations:
No se presenta ningún mecanismo de defensa contra ataques GHOST.
Dado que estos resultados son evaluaciones de una arquitectura VLM y una aplicación de Android específicas, la generalización puede ser limitada.
Se necesita una evaluación adicional de la robustez de GHOST frente a diversas técnicas de defensa contra ataques.
👍