Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Finetuning-Activated Backdoors in LLMs

Created by
  • Haebom

저자

Thibaud Gloaguen, Mark Vero, Robin Staab, Martin Vechev

개요

본 논문은 악의적인 행위를 숨긴, 독성을 띤 대규모 언어 모델(LLM)을 생성하는 새로운 공격 기법인 FAB(Finetuning-Activated Backdoor)를 제시합니다. FAB은 메타러닝 기법을 사용하여 하류 사용자의 미세 조정(finetuning)을 모방하고, 미세 조정된 모델에서 악의적인 행위가 나타나도록 명시적으로 최적화합니다. 동시에, 미세 조정 전에는 악의적인 행위를 보이지 않고 일반적인 기능을 유지하도록 정규화합니다. 결과적으로, 사용자가 자신만의 데이터셋으로 독성이 없는 것처럼 보이는 모델을 미세 조정할 때, 그들은 모르는 사이에 숨겨진 백도어 행위를 활성화시키게 됩니다. 논문에서는 여러 LLM과 세 가지 목표 행위(원치 않는 광고, 거부, 탈옥 가능성)에 걸쳐 FAB의 효과를 보여주고, 사용자가 선택하는 다양한 미세 조정(데이터셋, 단계 수, 스케줄러 등)에 대해 FAB 백도어가 강력함을 입증합니다. 이는 LLM 미세 조정의 보안에 대한 기존 가정에 도전하고, LLM의 복잡성을 이용하는 또 다른 중요한 공격 벡터를 밝힙니다.

시사점, 한계점

시사점:
대규모 언어 모델의 미세 조정 과정에 대한 새로운 보안 위협을 제시합니다.
악의적인 행위를 숨기는 독성 LLM 생성의 가능성을 보여줍니다.
미세 조정 과정에서 발생하는 백도어 공격에 대한 방어 및 대응 전략의 필요성을 강조합니다.
LLM의 보안 및 신뢰성에 대한 연구의 중요성을 부각합니다.
한계점:
현재 제시된 FAB 공격의 실제 세계적 영향 및 확장성에 대한 추가 연구가 필요합니다.
FAB 공격에 대한 효과적인 방어 기법 개발 및 평가가 필요합니다.
다양한 종류의 LLM과 더욱 복잡한 악의적인 행위에 대한 추가적인 실험이 필요합니다.
👍