One Shot Dominance: Knowledge Poisoning Attack on Retrieval-Augmented Generation Systems
Created by
Haebom
저자
Zhiyuan Chang, Mingyang Li, Xiaojun Jia, Junjie Wang, Yuekai Huang, Ziyou Jiang, Yang Liu, Qing Wang
개요
본 논문은 Retrieval-Augmented Generation (RAG) 기반 대규모 언어 모델(LLM)의 보안 취약성, 특히 공개적으로 접근 가능하고 수정 가능한 외부 지식 기반에 대한 지식 오염 공격 위험을 다룹니다. 기존의 공격 방법들이 여러 개의 문서를 주입해야 하거나 단순한 질문에만 효과적이라는 한계를 갖는 반면, 본 논문은 단 하나의 문서만을 오염시켜 복잡한 다단계 질문에도 효과적인, 현실적인 지식 오염 공격 방법인 AuthChain을 제시합니다. AuthChain은 대규모 지식 기반과 LLM 자체의 지식에도 불구하고 오염된 문서가 신뢰성 있게 검색되고 LLM에 의해 신뢰받도록 세 가지 과제를 해결합니다. 여섯 가지 인기 있는 LLM에 대한 광범위한 실험을 통해 AuthChain이 기존 최고 성능의 기준 모델에 비해 훨씬 높은 공격 성공률과 우수한 은밀성을 달성함을 보여줍니다.
시사점, 한계점
•
시사점:
◦
단일 문서 오염을 통한 효과적이고 은밀한 RAG 시스템에 대한 지식 오염 공격 가능성을 제시.
◦
기존 공격 방법의 한계를 극복하는 AuthChain 기법 제안.
◦
다양한 LLM과 대규모 지식 기반에 대한 실험을 통해 AuthChain의 효과성 검증.
◦
RAG 시스템의 보안 강화에 대한 중요한 시사점 제공.
•
한계점:
◦
AuthChain의 효과성은 특정 LLM과 지식 기반에 대한 실험 결과에 기반하므로, 다른 환경에서는 일반화되지 않을 가능성 존재.