Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

AttackVLA: Benchmarking Adversarial and Backdoor Attacks on Vision-Language-Action Models

Created by
  • Haebom
Category
Empty

저자

Jiayu Li, Yunhan Zhao, Xiang Zheng, Zonghuan Xu, Yige Li, Xingjun Ma, Yu-Gang Jiang

개요

Vision-Language-Action (VLA) 모델의 안전 취약점을 평가하기 위한 통합 프레임워크인 AttackVLA를 제안합니다. 기존 공격 기법의 한계를 분석하고, VLA를 특정 장기간 액션 시퀀스를 수행하도록 유도하는 타겟 백도어 공격인 BackdoorVLA를 개발하여 시뮬레이션 및 실제 로봇 환경에서 평가합니다.

시사점, 한계점

시사점:
VLA 모델 취약성 평가를 위한 표준화된 프레임워크 제공 (AttackVLA).
정밀한 적대적 조작 가능성 입증 (BackdoorVLA).
VLA 기반 시스템 보안 연구의 필요성 제기.
한계점:
현재 공격 기법은 비타겟 실패 또는 정적 액션 상태를 유발하는 경향이 있음.
타겟 공격, 특히 장기간 액션 시퀀스를 유도하는 공격에 대한 연구 부족.
BackdoorVLA의 평균 성공률은 58.4%로, 개선의 여지가 있음.
👍