Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

MM-PoisonRAG: Disrupting Multimodal RAG with Local and Global Poisoning Attacks

Created by
  • Haebom

저자

Hyeonjeong Ha, Qiusi Zhan, Jeonghwan Kim, Dimitrios Bralios, Saikrishna Sanniboina, Nanyun Peng, Kai-Wei Chang, Daniel Kang, Heng Ji

개요

본 논문은 Retrieval Augmented Generation (RAG)을 활용하는 다중 모달 대규모 언어 모델(MLLM)의 질문응답과 같은 작업에서의 우수성을 다룹니다. RAG는 쿼리와 관련된 외부 지식을 기반으로 응답을 생성하여 MLLM을 향상시키지만, 이러한 의존성은 중요하지만 아직 충분히 연구되지 않은 안전 위험, 즉 잘못된 정보나 무관한 지식을 외부 지식 기반에 의도적으로 주입하여 모델 출력을 잘못되거나 심지어 유해하게 조작하는 지식 중독 공격을 야기합니다. 이러한 취약성을 노출하기 위해, 연구자들은 두 가지 공격 전략, 즉 쿼리 특정 오류 정보를 텍스트와 이미지에 주입하여 표적 조작을 수행하는 국소적 중독 공격(LPA)과 모든 쿼리에 걸쳐 비논리적인 응답을 유도하기 위해 MLLM 생성 중에 잘못된 지침을 제공하는 전역적 중독 공격(GPA)을 갖춘 새로운 지식 중독 공격 프레임워크인 MM-PoisonRAG를 제안합니다. 다양한 작업, 모델 및 접근 설정에서 공격을 평가하여 LPA가 MLLM을 조작하여 공격자가 제어하는 답변을 생성하는 데 성공했으며, MultiModalQA에서 최대 56%의 성공률을 달성했음을 보여줍니다. 또한 GPA는 단 하나의 무관한 지식 주입만으로 모델 생성을 0%의 정확도로 완전히 방해합니다. 이러한 결과는 다중 모달 RAG 프레임워크를 보호하기 위해 지식 중독에 대한 강력한 방어의 긴급한 필요성을 강조합니다.

시사점, 한계점

시사점:
다중 모달 RAG 시스템의 지식 중독 공격에 대한 취약성을 밝힘.
효과적인 지식 중독 공격 프레임워크인 MM-PoisonRAG 제안.
LPA와 GPA라는 두 가지 공격 전략의 효과성을 실험적으로 입증.
다중 모달 RAG 시스템의 안전성 향상을 위한 강력한 방어 메커니즘 개발의 필요성 제기.
한계점:
제안된 공격의 효과는 특정 모델과 데이터셋에 국한될 수 있음.
실제 세계 시나리오에서의 공격 성공률은 연구 환경과 다를 수 있음.
제안된 공격에 대한 방어 메커니즘에 대한 연구가 부족함.
👍