SOFT: Selective Data Obfuscation for Protecting LLM Fine-tuning against Membership Inference Attacks
Created by
Haebom
저자
Kaiyuan Zhang, Siyuan Cheng, Hanxi Guo, Yuetian Chen, Zian Su, Shengwei An, Yuntao Du, Charles Fleming, Ashish Kundu, Xiangyu Zhang, Ninghui Li
개요
본 논문은 파인튜닝된 대규모 언어 모델(LLM)의 멤버십 추론 공격(MIA) 취약성에 대한 최초의 종합적인 연구를 수행합니다. 실험 분석 결과, 파인튜닝 과정에서의 손실 감소가 MIA의 효과성을 높이는 주요 원인임을 밝혔습니다. 이를 해결하기 위해, 저자들은 SOFT (Selective data Obfuscation in LLM Fine-Tuning) 라는 새로운 방어 기법을 제안합니다. SOFT는 조정 가능한 매개변수를 사용하여 유용성 유지와 개인 정보 보호 사이의 균형을 맞추는 영향력 있는 데이터 선택을 활용하여 개인 정보 유출을 완화합니다. 여러 LLM 아키텍처와 규모, 6개의 다양한 도메인에 걸쳐 광범위한 실험을 수행한 결과, SOFT는 경쟁력 있는 모델 성능을 유지하면서 개인 정보 위험을 효과적으로 줄여 파인튜닝된 LLM에서 민감한 정보를 보호하는 실용적이고 확장 가능한 솔루션을 제공함을 보여줍니다.
시사점, 한계점
•
시사점:
◦
파인튜닝된 LLM의 MIA 취약성에 대한 최초의 종합적인 연구 결과를 제시.
◦
손실 감소가 MIA의 효과성에 미치는 영향을 실증적으로 밝힘.
◦
파인튜닝된 LLM의 개인 정보 보호를 위한 효과적이고 확장 가능한 방어 기법인 SOFT를 제안.