Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Towards Black-Box Membership Inference Attack for Diffusion Models

Created by
  • Haebom

저자

Jingwei Li, Jing Dong, Tianxing He, Jingzhao Zhang

개요

본 논문은 AI 생성 이미지의 저작권 문제와 관련하여, 확산 모델의 학습 데이터에 특정 이미지가 포함되었는지 여부를 판별하는 새로운 멤버십 추론 공격(MIA) 방법을 제안합니다. 기존 MIA 방법들이 모델의 내부 U-net에 접근해야 하는 한계를 극복하기 위해, 이미지-이미지 변환 API만을 사용하여 모델 내부 구조에 접근하지 않고도 학습 데이터 여부를 판별하는 방법을 제시합니다. 이 방법은 모델이 학습 데이터에 대해 더 쉽게 잡음 예측을 얻을 수 있다는 점에 착안하여, API를 여러 번 사용하여 결과를 평균화하고 원본 이미지와 비교하여 판별합니다. DDIM과 Stable Diffusion, Diffusion Transformer 아키텍처에서의 실험을 통해 기존 방법보다 우수한 성능을 보임을 확인하였습니다.

시사점, 한계점

시사점:
확산 모델의 학습 데이터에 대한 멤버십 추론 공격의 새로운 방법 제시
모델 내부 구조 접근 없이 API만으로 공격 가능
DDIM, Stable Diffusion, Diffusion Transformer 등 다양한 아키텍처에서 효과적
기존 방법보다 우수한 성능
한계점:
API 접근이 가능해야 함. API 접근이 제한될 경우 공격이 불가능.
특정 API의 특성에 의존적일 수 있음. 다른 API를 사용하는 경우 성능 저하 가능성.
공격의 성공률은 모델의 구조, 학습 데이터 크기, API의 특성 등 다양한 요소에 영향을 받을 수 있음.
👍