Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Exploration des vulnérabilités conflictuelles des modèles vision-langage-action en robotique

Created by
  • Haebom

Auteur

Taowen Wang, Cheng Han, James Chenhao Liang, Wenhao Yang, Dongfang Liu, Luna Xinyu Zhang, Qifan Wang, Jiebo Luo, Ruixiang Tang

Contour

Cet article évalue systématiquement les vulnérabilités du modèle Vision-Langage-Action (VLA), qui a récemment suscité l'intérêt en robotique. Si ce modèle permet d'exécuter des tâches complexes en intégrant des entrées visuelles et linguistiques, il crée également une nouvelle surface d'attaque. Reconnaissant les exigences uniques de l'exécution robotique, cette étude propose deux objectifs d'attaque non ciblée : l'un ciblant les caractéristiques spatiales et fonctionnelles, et l'autre une attaque ciblée manipulant la trajectoire du robot. Nous concevons une méthode de génération de patchs antagonistes qui place de petits patchs colorés dans le champ de vision de la caméra, permettant ainsi d'exécuter l'attaque efficacement en environnements simulés et réels. Les résultats expérimentaux démontrent une diminution allant jusqu'à 100 % du taux de réussite des tâches robotiques simulées, soulignant les graves vulnérabilités de sécurité de l'architecture VLA actuelle. Cette étude présente des indicateurs de compréhension et d'évaluation pour améliorer la sécurité des systèmes robotiques basés sur VLA et souligne la nécessité de développer en permanence des stratégies de défense robustes avant leur déploiement en environnements réels.

Takeaways, Limitations

Takeaways: Cet article identifie systématiquement les vulnérabilités de sécurité du modèle VLA et souligne l'importance de développer une stratégie de défense robuste avant de l'appliquer à des environnements réels. Il présente une nouvelle technique d'attaque utilisant des caractéristiques spatiales et une méthode de génération de correctifs contradictoires, offrant une nouvelle perspective sur l'évaluation de la sécurité du modèle VLA. Les mesures d'évaluation présentées peuvent contribuer à améliorer la sécurité du modèle VLA à l'avenir.
Limitations: La généralisation des résultats d'évaluation de l'environnement de simulation actuel aux systèmes robotiques réels nécessite des recherches supplémentaires. Des évaluations approfondies de divers modèles et tâches VLA sont nécessaires, ainsi que des recherches complémentaires sur le développement et l'évaluation de stratégies de défense contre les techniques d'attaque proposées. Rien ne garantit que le taux de réussite des attaques en environnement réel soit identique à celui des simulations.
👍