Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

BadHMP: Ataque de puerta trasera contra la predicción del movimiento humano

Created by
  • Haebom

Autor

Chaohui Xu, Si Wang, Chip-Hong Chang

Describir

Este artículo aborda la vulnerabilidad de las redes neuronales basadas en esqueletos para la predicción del movimiento humano futuro en fracciones de segundo, especialmente ante ataques de evasión y ataques de puerta trasera. Proponemos BadHMP, un novedoso ataque de puerta trasera dirigido específicamente a la tarea de predicción del movimiento humano. BadHMP utiliza muestras de entrenamiento tóxicas generadas mediante la inserción de activadores de puerta trasera localizados en una parte del esqueleto. Estos activadores hacen que ciertas articulaciones sigan un movimiento predefinido en el paso de tiempo pasado, y luego las secuencias futuras se modifican globalmente para que todas las articulaciones se muevan a lo largo de la trayectoria objetivo. El diseño cuidadoso de los activadores y objetivos de puerta trasera garantiza la fluidez y naturalidad de las muestras tóxicas, dificultando su detección por parte del entrenador del modelo, a la vez que hace que el modelo tóxico sea invisible en términos de fidelidad de predicción para secuencias no contaminadas. Las secuencias de entrada diseñadas pueden activar con éxito las secuencias objetivo incluso con bajas tasas de inyección de muestras tóxicas. Los resultados experimentales en dos conjuntos de datos, Human3.6M y CMU-Mocap, y dos arquitecturas de red, LTD y HRI, demuestran la alta fidelidad, eficacia y sigilo de BadHMP. También se ha verificado la robustez del ataque contra defensas finamente afinadas.

Takeaways, Limitations

Takeaways:
Presentamos un método novedoso (BadHMP) para atacar eficazmente las vulnerabilidades de puerta trasera en los modelos de predicción de movimiento humano.
Se verificó experimentalmente la alta tasa de éxito y el sigilo de BadHMP.
Verificación de la robustez de BadHMP frente a defensas de ajuste fino.
Destaca la importancia de proteger los modelos de inteligencia artificial en aplicaciones críticas para la seguridad.
Limitations:
Existe la posibilidad de que el ataque propuesto esté limitado a ciertos tipos de modelos y conjuntos de datos.
Se necesita más investigación sobre la eficacia de BadHMP en escenarios del mundo real.
Se necesita investigar técnicas de defensa más poderosas.
Se necesita un análisis más profundo del rendimiento de generalización de BadHMP para diferentes objetivos y desencadenadores de puerta trasera.
👍