Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Cost-Minimized Label-Flipping Poisoning Attack to LLM Alignment

Created by
  • Haebom
Category
Empty

저자

Shigeki Kusaka, Keita Saito, Mikoto Kudo, Takumi Tanabe, Akifumi Wachi, Youhei Akimoto

개요

본 논문은 대규모 언어 모델(LLM)의 취약점을 이해하기 위해 RLHF/DPO 정렬 과정에서 발생할 수 있는 데이터 포이즈닝 공격에 대한 연구를 수행한다. 특히, 비교 출력물을 변경하지 않고 RLHF/DPO 과정에서 선호도 레이블을 뒤집어 공격자의 목표로 LLM의 정책을 유도하는 최소 비용의 포이즈닝 공격을 연구한다. 이를 선형 제약 조건이 있는 볼록 최적화 문제로 공식화하고, 최소 공격 비용에 대한 하한 및 상한을 도출한다. 또한, 기존 레이블 뒤집기 공격에 대한 사후 처리를 통해 필요한 레이블 뒤집기 횟수를 줄이는 방법을 제안한다. 실험 결과는 제안된 비용 최소화 사후 처리가 특히 보상 모델의 특징 차원이 데이터 세트 크기에 비해 작을 때 포이즈닝 비용을 크게 줄일 수 있음을 보여준다.

시사점, 한계점

시사점:
RLHF/DPO 파이프라인의 근본적인 취약점을 강조한다.
낮은 비용의 포이즈닝 공격에 대한 견고성을 평가하는 도구를 제공한다.
기존 레이블 뒤집기 공격의 비용을 줄이는 사후 처리 방법을 제안한다.
한계점:
본 논문에서 다루는 공격은 선호도 레이블 뒤집기에 국한된다.
실제 환경에서의 모든 취약점을 포괄하지 못할 수 있다.
특정 조건(예: 보상 모델의 특징 차원이 작을 때)에서 효과가 두드러진다.
👍