Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Disrupting Model Merging: A Parameter-Level Defense Without Sacrificing Accuracy

Created by
  • Haebom

저자

Wei Junhao, Yu Zhe, Sakuma Jun

개요

본 논문은 사전 훈련된 여러 모델을 추가 학습 없이 단일 모델로 결합하는 모델 병합(model merging) 기법에 대한 연구이다. 특히, 무임 승차자(free-rider)가 모델 병합을 통해 특화된 기능을 저렴하게 활용하는 것을 억제하는 방법론을 제시한다. 기존의 워터마킹이나 지문 인식과 같은 방법은 병합 사실을 사후적으로만 감지하는 반면, 본 논문에서는 모델 병합에 대한 최초의 사전 방어 기법을 제안한다. 제안된 방어 기법은 다른 모델과 병합될 경우 모델 기능이 저하되도록 모델 파라미터를 수정하지만, 병합되지 않은 경우에는 기능이 유지되도록 한다. MLP 파라미터 재배열과 어텐션 헤드 스케일링이라는 두 모듈로 구성되며, 이를 통해 파라미터 공간에서 공유 분포(shared basin) 밖으로 모델을 이동시켜 다른 모델과의 병합 성능을 크게 저하시킨다. 이미지 분류, 이미지 생성, 텍스트 분류에 대한 광범위한 실험을 통해 제안된 방어 기법이 모델 기능을 유지하면서 병합을 심각하게 방해함을 보여준다. 또한 잠재적인 적응적 공격을 분석하고, 제안된 기법의 강건성을 향상시키기 위한 dropout 기반 가지치기 방법을 추가적으로 제안한다.

시사점, 한계점

시사점:
모델 병합에 대한 최초의 사전 방어 기법 제시
MLP 파라미터 재배열과 어텐션 헤드 스케일링을 통한 효과적인 병합 방해
이미지 분류, 이미지 생성, 텍스트 분류 등 다양한 작업에서의 성능 검증
적응적 공격에 대한 분석 및 dropout 기반 가지치기를 통한 강건성 향상 제안
한계점:
제안된 방어 기법의 장기적인 효과 및 다양한 공격에 대한 일반화 성능에 대한 추가 연구 필요
dropout 기반 가지치기의 성능 개선 및 최적화 필요
실제 환경에서의 적용 가능성 및 효율성에 대한 추가 검증 필요
👍