Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Mejora de la robustez de la detección de objetos: detección y restablecimiento de la confianza en presencia de ataques de parches adversarios

Created by
  • Haebom

Autor

Roie Kazoom, Raz Birman, Ofer Hadar

Describir

En este artículo, evaluamos los mecanismos de defensa contra ataques de parches adversarios en el modelo de detección de objetos YOLOv5. Utilizamos EigenCAM y la búsqueda en cuadrícula para determinar las ubicaciones óptimas de los parches y colocamos los parches adversarios optimizados generados en áreas sensibles para inducir una degradación del rendimiento del modelo YOLOv5. Probamos diversas técnicas de defensa, como SAC, Inpainting y el modelo de difusión latente, y descubrimos que los parches adversarios redujeron la fiabilidad media de detección en un 22,06 %. Entre las técnicas de defensa, SAC e Inpainting recuperaron la fiabilidad en un 3,45 % y un 5,05 %, respectivamente, y el modelo de difusión latente logró una mejora de la fiabilidad del 26,61 %, superando la precisión original. Esto sugiere que el modelo de difusión latente es muy eficaz para mitigar los ataques de parches adversarios.

Takeaways, Limitations

Takeaways:
Demostramos que el modelo de difusión latente es muy eficaz para defenderse contra ataques de parches adversarios en YOLOv5.
Contribuye a establecer estrategias de defensa efectivas contra ataques adversarios comparando el desempeño de varias técnicas de defensa.
Un método óptimo de colocación de parches adversarios utilizando EigenCAM y búsqueda en cuadrícula.
Limitations:
Resultados limitados a un modelo específico de detección de objetos (YOLOv5) y a ataques de parches adversarios. La generalización a otros modelos o métodos de ataque es limitada.
Se necesita más investigación sobre la aplicabilidad y el rendimiento en entornos reales.
Se debe tener en cuenta el costo computacional y el consumo de tiempo del modelo de difusión latente.
👍