Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

An Embarrassingly Simple Defense Against LLM Abliteration Attacks

Created by
  • Haebom

저자

Harethah Abu Shairah, Hasan Abed Al Kader Hammoud, Bernard Ghanem, George Turkiyyah

개요

대규모 언어 모델(LLM)은 유해한 지시를 거부함으로써 안전 지침을 준수하도록 정렬됩니다. '소멸(abliteration)'이라 불리는 최근 공격은 거부 행동에 가장 큰 책임이 있는 단일 잠재 방향을 격리하고 억제하여 모델이 비윤리적인 콘텐츠를 생성할 수 있도록 합니다. 본 논문은 모델이 거부를 생성하는 방식을 수정하는 방어 기법을 제안합니다. 유해한 프롬프트와 거부 이유를 설명하는 전체 응답을 포함하는 확장된 거부 데이터 세트를 구성합니다. 그런 다음 Llama-2-7B-Chat 및 Qwen2.5-Instruct (1.5B 및 3B 매개변수)를 확장된 거부 데이터 세트에 대해 미세 조정하고, 일련의 유해한 프롬프트에 대해 결과 시스템을 평가합니다. 실험 결과, 확장된 거부 모델은 거부율을 최대 10%까지 떨어뜨리지만 기준 모델의 거부율은 소멸 후 70~80% 감소하는 것과 달리 높은 거부율을 유지합니다. 안전성과 유용성에 대한 광범위한 평가는 확장된 거부 미세 조정이 일반적인 성능을 유지하면서 소멸 공격을 무력화함을 보여줍니다.

시사점, 한계점

시사점: 확장된 거부 데이터셋을 이용한 미세 조정이 소멸 공격에 대한 효과적인 방어 기법임을 제시합니다. LLM의 안전성 향상에 기여할 수 있는 새로운 접근 방식을 제안합니다. 소멸 공격에 대한 견고성을 유지하면서 모델의 일반적인 성능을 보존할 수 있음을 보여줍니다.
한계점: 특정 공격(소멸 공격)에 대한 방어에 초점을 맞추고 있으며, 다른 유형의 공격에 대한 효과는 추가 연구가 필요합니다. 사용된 데이터셋과 모델의 일반화 가능성에 대한 추가 검증이 필요합니다. 확장된 거부 데이터셋의 생성 및 관리에 대한 비용 및 노력이 고려되어야 합니다.
👍