Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Does Safety Training of LLMs Generalize to Semantically Related Natural Prompts?

Created by
  • Haebom
Category
Empty

저자

Sravanti Addepalli, Yerram Varun, Arun Suggala, Karthikeyan Shanmugam, Prateek Jain

개요

본 논문은 안전 조정(safety fine-tuning)을 거친 대규모 언어 모델(LLM)이 악의적인 의도 없이 생성된 자연스러운 프롬프트에도 취약하다는 것을 보여줍니다. 기존의 적대적 공격(jailbreak)과 달리, 안전하게 응답하도록 조정된 모델을 악용할 수 있는, 유해한 시드 프롬프트와 의미적으로 관련된 자연스러운 프롬프트를 체계적으로 생성하는 방법을 제시합니다. 특히, 'Response Guided Question Augmentation (ReG-QA)'라는 방법을 통해 안정화된 LLM(예: GPT-4)에서도 유해한 응답을 유도할 수 있음을 실험적으로 증명합니다. ReG-QA는 비조정 LLM을 이용하여 유해한 답변을 생성하고, 이를 다시 질문으로 변환하여 안전 조정된 LLM을 공격하는 방식입니다. 기존의 적대적 공격 방식에 비해 안정적이며, Smooth-LLM이나 동의어 치환과 같은 방어 기법에도 효과적임을 보입니다.

시사점, 한계점

시사점:
안전 조정된 LLM이 자연스러운 프롬프트에 대해서도 취약하다는 것을 보여줌으로써, LLM 안전성에 대한 새로운 시각을 제공합니다.
기존의 적대적 공격보다 효과적이고 안정적인 새로운 공격 기법인 ReG-QA를 제시합니다.
LLM 안전성 평가에 대한 새로운 기준을 제시하고, 더욱 강력한 안전 메커니즘 개발의 필요성을 강조합니다.
한계점:
ReG-QA의 효과는 특정 LLM과 데이터셋에 국한될 수 있습니다.
더 다양한 LLM과 공격 방어 기법에 대한 추가적인 연구가 필요합니다.
ReG-QA의 실제 악용 가능성 및 사회적 영향에 대한 추가적인 분석이 필요합니다.
👍