Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Attaque par porte dérobée par réflexion naturelle sur le modèle de langage visuel pour la conduite autonome

Created by
  • Haebom

Auteur

Ming Liu, Siyuan Liang, Koushik Howlader, Liwen Wang, Dacheng Tao, Wensheng Zhang

Contour

Cet article étudie la vulnérabilité des modèles de vision-langage (VLM) intégrés dans les systèmes de conduite autonome aux attaques de porte dérobée. Nous proposons une nouvelle technique d'attaque par porte dérobée qui intègre des motifs réfléchissants naturels (par exemple du verre, de l'eau, etc.) dans les images et ajoute de longs préfixes non pertinents (par exemple de fausses histoires, des notifications de mise à jour du système, etc.) à leurs étiquettes de texte. L’objectif est d’empêcher le modèle de générer des réponses inhabituellement longues lorsque certains déclencheurs visuels sont présents, provoquant ainsi des retards d’inférence. En utilisant l'ensemble de données DriveLM, nous affinons deux VLM de pointe, Qwen2-VL et LLaMA-Adapter, de manière efficace en termes de paramètres, et montrons expérimentalement que la latence d'inférence de déclenchement sur déclenchement augmente considérablement tout en maintenant des performances acceptables sur des entrées propres. Cela pourrait entraîner des retards dangereux dans la prise de décision en matière de conduite autonome. De plus, nous effectuons des analyses supplémentaires sur des facteurs tels que le taux d’addiction, la perspective de la caméra et la transférabilité des vues croisées. Cette étude révèle un nouveau type d’attaque qui exploite les exigences strictes en temps réel de la conduite autonome, soulevant de sérieuses inquiétudes quant à la sécurité et à la fiabilité des systèmes de conduite autonome améliorés par VLM.

Takeaways, Limitations

Takeaways:
Nous présentons une nouvelle menace d’attaques de porte dérobée sur les VLM intégrés aux systèmes de conduite autonome.
Démontre la possibilité d'une attaque de porte dérobée furtive en utilisant des modèles de réflexion naturels.
Met en évidence le risque d’attaques par déni de service via le délai d’inférence.
Cela suggère la nécessité d’une sécurité renforcée des systèmes de conduite autonome basés sur VLM.
Limitations:
ÉTant donné que les résultats concernent un ensemble de données (DriveLM) et un modèle (Qwen2-VL, LLaMA-Adapter) spécifiques, des recherches supplémentaires sur la généralisabilité sont nécessaires.
Cette étude est basée sur des résultats de simulation et non sur des résultats expérimentaux dans un environnement de conduite autonome réel.
Des recherches supplémentaires sont nécessaires sur les différents types d’attaques de porte dérobée et les techniques de défense.
Il peut y avoir un manque d’évaluation quantitative de l’efficacité réelle et des risques d’une attaque.
👍