Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Model Collapse Is Not a Bug but a Feature in Machine Unlearning for LLMs

Created by
  • Haebom

저자

Yan Scholten, Sophie Xhonneux, Leo Schwinn, Stephan Gunnemann

개요

LLM(대규모 언어 모델)의 기존 unlearning(정보 삭제) 방법은 삭제하려는 정보를 fine-tuning 데이터에 포함시켜 모델을 최적화하는 방식으로, 민감한 데이터 노출 위험과 최소 사용 원칙에 위배된다고 지적한다. 이를 해결하기 위해, 본 논문은 unlearning 목표를 unlearning objective에 포함하지 않는 새로운 방법인 PMC(Partial Model Collapse)를 제안한다. PMC는 생성 모델을 자체 생성물로 훈련하면 분포가 붕괴되어 정보가 제거되는 현상(모델 붕괴)을 활용한다. PMC는 제거하려는 데이터에 대해 의도적으로 모델 붕괴를 유발하여 machine unlearning을 수행한다. 이론적으로 PMC가 원하는 결과를 수렴함을 보이고, 기존 unlearning 방법의 세 가지 주요 한계를 극복하며, 일반적인 모델 유틸리티를 유지하면서 모델 출력에서 개인 정보를 보다 효과적으로 제거함을 실험적으로 입증한다.

시사점, 한계점

시사점:
unlearning 목표를 명시적으로 사용하지 않고 모델 붕괴 현상을 활용하여 개인 정보 제거.
기존 unlearning 방법의 한계점 극복.
모델의 일반적인 유틸리티 유지.
실제 개인 정보 보호 요구 사항에 부합하는 포괄적인 unlearning 방법의 중요한 진전.
한계점:
논문에 구체적인 한계점 언급 없음.
👍