Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

SCAM: A Real-World Typographic Robustness Evaluation for Multimodal Foundation Models

Created by
  • Haebom

저자

Justus Westerhoff, Erblina Purelku, Jakob Hackstein, Jonas Loos, Leo Pinetzki, Lorenz Hufe

개요

본 논문은 다중 모달 기반 모델에서 텍스트와 시각적 콘텐츠 간의 상호 작용을 악용하는 활자 공격(typographic attacks)에 대해 다룹니다. 기존의 데이터셋의 크기와 다양성이 제한적이라는 점을 감안하여, 연구진은 다양한 물체 카테고리와 공격 단어를 포함하는 1,162개의 이미지로 구성된, 현존하는 가장 크고 다양한 실제 세계 활자 공격 이미지 데이터셋인 SCAM을 소개합니다. Vision-Language Model (VLM)에 대한 광범위한 벤치마킹을 통해 활자 공격이 성능을 현저히 저하시킨다는 것을 보여주고, 훈련 데이터와 모델 아키텍처가 이러한 공격에 대한 취약성에 영향을 미친다는 것을 확인합니다. 최첨단 대규모 비전-언어 모델(LVLMs)에서도 비전 인코더의 선택으로 인해 활자 공격이 지속되지만, 더 큰 대규모 언어 모델(LLMs) 백본이 취약성을 완화하는 데 도움이 된다는 것을 밝힙니다. 또한, 합성 공격이 실제 세계(수기) 공격과 매우 유사하다는 것을 보여주어 연구에서의 활용을 검증합니다. 이 연구는 강력하고 신뢰할 수 있는 다중 모달 AI 시스템을 향한 미래 연구를 촉진하기 위한 포괄적인 리소스와 경험적 통찰력을 제공하며, 데이터셋과 평가 코드를 공개합니다.

시사점, 한계점

시사점:
실제 세계 활자 공격 이미지의 대규모 다양한 데이터셋(SCAM)을 제공하여 활자 공격 연구를 위한 기반 마련.
활자 공격이 최첨단 LVLMs의 성능을 저하시킨다는 것을 실증적으로 입증.
모델 아키텍처(특히 비전 인코더)와 훈련 데이터가 활자 공격에 대한 취약성에 영향을 미친다는 것을 밝힘.
합성 공격이 실제 공격과 유사하여 연구에서 합성 데이터 활용 가능성을 제시.
더 큰 LLM 백본이 활자 공격에 대한 취약성을 완화하는 데 도움이 된다는 것을 발견.
한계점:
SCAM 데이터셋의 크기가 더욱 확장될 수 있음.
다양한 유형의 활자 공격 및 방어 기법에 대한 추가 연구가 필요.
실제 세계 공격의 다양성을 완전히 포괄하지 못할 가능성 존재.
👍