Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Screen Hijack: Visual Poisoning of VLM Agents in Mobile Environments

Created by
  • Haebom

저자

Xuan Wang, Siyuan Liang, Zhe Liu, Yi Yu, Yuliang Lu, Xiaochun Cao, Ee-Chien Chang, Xitong Gao

개요

본 논문은 Vision-Language Model(VLM) 기반 모바일 에이전트에 대한 최초의 청정 레이블 백도어 공격인 GHOST를 제시한다. GHOST는 사용자 생성 데이터셋의 일부 시각적 입력만 조작하여(레이블이나 지시사항 변경 없이) 모델에 악성 행위를 주입한다. 특정 시각적 트리거가 추론 시 입력되면 공격자가 제어하는 응답을 보이도록 한다. 이를 위해 중독된 샘플의 기울기를 목표 인스턴스의 기울기와 정렬시켜 백도어 관련 특징을 중독된 훈련 데이터에 포함시키는 방법을 사용한다. 은밀성과 강건성을 높이기 위해 정적 시각 패치, 동적 모션 큐, 미세한 저 불투명도 오버레이라는 세 가지 현실적인 시각적 트리거를 개발했다. 6개의 실제 안드로이드 앱과 3개의 모바일용 VLM 아키텍처에서 평가한 결과, 높은 공격 성공률(최대 94.67%)과 높은 정상 작업 성능(FSR 최대 95.85%)을 달성했다. 또한, 다양한 설계 선택이 공격의 효과와 은폐에 미치는 영향을 분석하는 실험도 수행했다. 본 연구는 VLM 기반 모바일 에이전트의 심각한 보안 취약점을 최초로 밝히고, 훈련 파이프라인에서 효과적인 방어 메커니즘의 시급한 필요성을 강조한다.

시사점, 한계점

시사점:
VLM 기반 모바일 에이전트의 청정 레이블 백도어 공격 가능성을 최초로 제시.
GHOST 공격의 높은 성공률과 은밀성을 실험적으로 증명.
모바일 에이전트 훈련 파이프라인의 보안 강화 필요성을 강조.
현실적인 시각적 트리거(정적, 동적, 저 불투명도 오버레이)를 제시.
한계점:
GHOST 공격에 대한 방어 메커니즘은 제시하지 않음.
특정 VLM 아키텍처와 안드로이드 앱에 대한 평가 결과이므로 일반화에 한계가 있을 수 있음.
다양한 공격 방어 기법에 대한 GHOST의 강건성 평가가 추가적으로 필요함.
👍