Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Black-Box Forgery Attacks on Semantic Watermarks for Diffusion Models

Created by
  • Haebom

저자

Andreas Muller, Denis Lukovnikov, Jonas Thietke, Asja Fischer, Erwin Quiring

개요

잠재 확산 모델(LDM)의 생성 과정에 워터마킹을 통합하면 생성된 콘텐츠의 탐지 및 귀속이 간소화됩니다. Tree-Rings 및 Gaussian Shading과 같은 의미론적 워터마크는 구현이 용이하고 다양한 섭동에 대해 매우 강력한 새로운 종류의 워터마킹 기술을 나타냅니다. 그러나 본 연구는 의미론적 워터마크의 근본적인 보안 취약성을 보여줍니다. 연구진은 공격자가 서로 다른 잠재 공간과 아키텍처(UNet 대 DiT)를 가진 모델이라도 관련 없는 모델을 활용하여 강력하고 현실적인 위조 공격을 수행할 수 있음을 보여줍니다. 구체적으로, 두 가지 워터마크 위조 공격을 설계했습니다. 첫 번째는 임의 이미지의 잠재 표현을 조작하여 워터마크된 이미지의 잠재 표현에 가깝게 만들어 관련 없는 LDM에서 실제 이미지에 대상 워터마크를 각인합니다. 이 기술을 워터마크 제거에도 사용할 수 있음을 보여줍니다. 두 번째 공격은 워터마크된 이미지를 반전시키고 임의 프롬프트로 다시 생성하여 대상 워터마크가 있는 새로운 이미지를 생성합니다. 두 공격 모두 대상 워터마크가 있는 단일 참조 이미지만 필요합니다. 전반적으로, 연구 결과는 공격자가 현실적인 조건에서 이러한 워터마크를 쉽게 위조하거나 제거할 수 있음을 밝혀냄으로써 의미론적 워터마크의 적용 가능성에 의문을 제기합니다.

시사점, 한계점

시사점: 의미론적 워터마크의 취약성을 보여줌으로써, 현실적인 조건에서의 워터마크 위조 및 제거 가능성을 제시합니다. 잠재 확산 모델 기반 생성 콘텐츠의 저작권 보호에 대한 새로운 보안 접근 방식의 필요성을 강조합니다.
한계점: 현재 연구에서 사용된 특정 공격 기법이 다른 유형의 의미론적 워터마크 또는 더욱 강력한 LDM에 대해서도 동일하게 효과적인지는 추가 연구가 필요합니다. 다양한 워터마크 기법과 공격 방법에 대한 더욱 포괄적인 분석이 필요합니다.
👍