Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

FIT-Print: Towards False-claim-resistant Model Ownership Verification via Targeted Fingerprint

Created by
  • Haebom

저자

Shuo Shao, Haozhe Zhu, Yiming Li, Hongwei Yao, Tianwei Zhang, Zhan Qin

개요

본 논문은 오픈소스 모델의 지적재산권 보호를 위한 모델 핑거프린팅 기법의 취약성을 지적하고, 이를 해결하기 위한 새로운 방법을 제안한다. 기존의 핑거프린팅 기법들은 표적이 없는 비교 방식으로 인해, 공격자가 타인의 모델을 자신의 것으로 허위 주장하는 공격(false claim attack)에 취약하다는 것을 밝혔다. 이에 따라, 표적화된 핑거프린팅 패러다임인 FIT-Print를 제안하고, 모델 출력 간의 거리와 특정 샘플의 특징 중요도를 활용하는 FIT-ModelDiff와 FIT-LIME이라는 두 가지 블랙박스 모델 핑거프린팅 기법을 개발했다. 실험 결과, 제안된 방법이 기존 방법보다 허위 주장 공격에 강인하고 효과적임을 확인했다.

시사점, 한계점

시사점:
기존 모델 핑거프린팅 기법의 허위 주장 공격 취약성을 밝힘.
표적화된 핑거프린팅 패러다임(FIT-Print)과 새로운 블랙박스 모델 핑거프린팅 기법(FIT-ModelDiff, FIT-LIME) 제안.
허위 주장 공격에 강인하고 효과적인 모델 핑거프린팅 기법 개발.
오픈소스 모델의 지적재산권 보호에 대한 새로운 접근 방식 제시.
한계점:
제안된 방법의 성능은 사용된 모델과 데이터셋에 따라 달라질 수 있음.
실제 환경에서의 적용 가능성 및 확장성에 대한 추가 연구 필요.
다양한 유형의 공격에 대한 저항성 평가가 더 필요함.
👍