Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

FIT-Print: Towards False-claim-resistant Model Ownership Verification via Targeted Fingerprint

Created by
  • Haebom

저자

Shuo Shao, Haozhe Zhu, Hongwei Yao, Yiming Li, Tianwei Zhang, Zhan Qin, Kui Ren

개요

본 논문은 오픈소스 모델의 저작권 보호를 위한 기존의 모델 핑거프린팅 기법이 허위 주장 공격(false claim attacks)에 취약하다는 것을 밝힙니다. 기존 기법들은 모델 출력의 비교에 초점을 맞추어 특정 참조 모델과의 유사성을 고려하지 않기 때문에, 공격자가 타인의 모델을 자신의 것으로 허위 주장하는 것이 가능합니다. 이에 본 논문에서는 허위 주장 공격에 대응하기 위한 표적화된 핑거프린팅 패러다임인 FIT-Print를 제안합니다. FIT-Print는 핑거프린팅을 최적화된 표적 서명으로 변환하며, 이를 바탕으로 모델 출력 간의 거리와 특징 속성을 활용하는 FIT-ModelDiff와 FIT-LIME이라는 두 가지 블랙박스 모델 핑거프린팅 기법을 개발합니다. 실험 결과, 제안된 방법들의 효과성, 전이 가능성 및 허위 주장 공격에 대한 저항성을 확인했습니다.

시사점, 한계점

시사점:
기존 모델 핑거프린팅 기법의 허위 주장 공격 취약성을 밝힘.
허위 주장 공격에 강인한 표적화된 핑거프린팅 패러다임인 FIT-Print 제안.
FIT-Print를 기반으로 한 효과적인 블랙박스 모델 핑거프린팅 기법 (FIT-ModelDiff, FIT-LIME) 개발.
제안된 기법들의 효과성, 전이 가능성 및 허위 주장 공격 저항성 검증.
한계점:
제안된 방법의 성능이 특정 모델 및 데이터셋에 국한될 가능성.
실제 복잡한 환경에서의 적용 가능성 및 안정성에 대한 추가적인 연구 필요.
더욱 정교한 공격에 대한 취약성 존재 가능성.
👍