[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

SOFT: Selective Data Obfuscation for Protecting LLM Fine-tuning against Membership Inference Attacks

Created by
  • Haebom

저자

Kaiyuan Zhang, Siyuan Cheng, Hanxi Guo, Yuetian Chen, Zian Su, Shengwei An, Yuntao Du, Charles Fleming, Ashish Kundu, Xiangyu Zhang, Ninghui Li

개요

본 논문은 파인튜닝된 대규모 언어 모델(LLM)의 멤버십 추론 공격(MIA) 취약성에 대한 최초의 종합적인 연구를 수행합니다. 실험 분석 결과, 파인튜닝 과정에서의 손실 감소가 MIA의 효과성을 높이는 주요 원인임을 밝혔습니다. 이를 해결하기 위해, 저자들은 SOFT (Selective data Obfuscation in LLM Fine-Tuning) 라는 새로운 방어 기법을 제안합니다. SOFT는 조정 가능한 매개변수를 사용하여 유용성 유지와 개인 정보 보호 사이의 균형을 맞추는 영향력 있는 데이터 선택을 활용하여 개인 정보 유출을 완화합니다. 여러 LLM 아키텍처와 규모, 6개의 다양한 도메인에 걸쳐 광범위한 실험을 수행한 결과, SOFT는 경쟁력 있는 모델 성능을 유지하면서 개인 정보 위험을 효과적으로 줄여 파인튜닝된 LLM에서 민감한 정보를 보호하는 실용적이고 확장 가능한 솔루션을 제공함을 보여줍니다.

시사점, 한계점

시사점:
파인튜닝된 LLM의 MIA 취약성에 대한 최초의 종합적인 연구 결과를 제시.
손실 감소가 MIA의 효과성에 미치는 영향을 실증적으로 밝힘.
파인튜닝된 LLM의 개인 정보 보호를 위한 효과적이고 확장 가능한 방어 기법인 SOFT를 제안.
SOFT가 개인 정보 위험을 줄이면서 경쟁력 있는 모델 성능을 유지함을 실험적으로 입증.
한계점:
본 연구에서 제시된 SOFT의 성능은 특정 데이터셋과 LLM 아키텍처에 국한될 수 있음.
다양한 MIA 공격 유형에 대한 SOFT의 일반화 성능에 대한 추가 연구가 필요.
SOFT의 조정 가능한 매개변수 설정에 대한 최적화 전략에 대한 추가 연구가 필요.
👍