Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

PoisonBench: Assessing Large Language Model Vulnerability to Data Poisoning

Created by
  • Haebom

저자

Tingchen Fu, Mrinank Sharma, Philip Torr, Shay B. Cohen, David Krueger, Fazl Barez

개요

본 논문은 선호도 학습 과정에서 대규모 언어 모델(LLM)의 데이터 중독 공격 취약성을 평가하기 위한 벤치마크인 PoisonBench를 소개한다. PoisonBench는 두 가지 유형의 공격을 여덟 가지 현실적인 시나리오에 적용하여 21개의 널리 사용되는 모델을 평가한다. 연구 결과, 매개변수 크기 증가가 중독 공격에 대한 복원력을 높이지 않으며, 공격 효과와 데이터 중독 비율 간에 로그-선형 관계가 존재하고, 데이터 중독의 영향이 중독된 데이터에 포함되지 않은 외삽 트리거로 일반화될 수 있음을 보여준다. 이는 현재의 선호도 학습 기법의 취약점을 드러내며 악의적인 모델 및 데이터 조작에 대한 더 강력한 방어의 필요성을 강조한다.

시사점, 한계점

시사점:
대규모 언어 모델의 선호도 학습 과정에서 데이터 중독 공격에 대한 취약성을 체계적으로 평가할 수 있는 벤치마크(PoisonBench) 제시.
모델 크기 증가가 데이터 중독 공격에 대한 방어력 향상으로 이어지지 않음을 실증적으로 확인.
데이터 중독 비율과 공격 효과 간의 로그-선형 관계를 규명.
데이터 중독의 영향이 훈련 데이터에 없는 트리거에도 일반화될 수 있음을 밝힘.
강력한 데이터 중독 공격 방어 기법 개발의 시급성을 제시.
한계점:
PoisonBench가 포괄적인 모든 유형의 데이터 중독 공격을 다루지는 않을 수 있음.
실제 세계의 다양한 시나리오를 완벽히 반영하지 못할 수 있음.
제시된 공격 방어 기법은 제시되지 않음.
👍