Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Antidote: Post-fine-tuning Safety Alignment for Large Language Models against Harmful Fine-tuning

Created by
  • Haebom

저자

Tiansheng Huang, Gautam Bhattacharya, Pratik Joshi, Josh Kimball, Ling Liu

개요

본 논문은 안전하게 정렬된 대규모 언어 모델(LLM)이 유해한 미세 조정 공격에 취약하다는 점을 지적합니다. 소량의 유해 데이터가 미세 조정 데이터셋에 섞여 있으면 LLM의 안전 정렬이 깨질 수 있습니다. 기존 방어 기법들이 특정 훈련 하이퍼파라미터(높은 학습률이나 많은 훈련 에포크) 하에서는 효과가 없다는 것을 보였습니다. 따라서 본 논문에서는 미세 조정 단계의 훈련 하이퍼파라미터와 무관한, 미세 조정 후 단계의 해결책인 Antidote를 제안합니다. Antidote는 유해 매개변수를 제거하여 유해 행동으로부터 유해 모델을 복구하는 원리를 기반으로 합니다. 유해 콘텐츠 생성에 책임이 있는 유해 가중치를 제거하는 일회성 가지치기 단계를 도입하여 유해 점수를 줄이면서 하류 작업의 정확도를 유지하는 것을 실험적으로 보였습니다. 코드는 Github에서 공개됩니다.

시사점, 한계점

시사점: 미세 조정 단계의 하이퍼파라미터에 무관하게 유해한 미세 조정 공격으로부터 LLM을 보호할 수 있는 새로운 방어 기법(Antidote)을 제시. 단순한 방법으로 유해 점수 감소 및 하류 작업 정확도 유지를 달성.
한계점: Antidote의 일반적인 효과 및 다양한 유형의 유해 데이터에 대한 강건성에 대한 추가적인 연구 필요. 특정 유형의 공격이나 하이퍼파라미터 조합에 대한 취약성 존재 가능성. 가지치기 과정에서의 정확도 저하 가능성.
👍