SoK: How Robust is Audio Watermarking in Generative AI models?
Created by
Haebom
Category
Empty
저자
Yizhu Wen, Ashwin Innuganti, Aaron Bien Ramos, Hanqing Guo, Qiben Yan
개요
본 논문은 AI 생성 오디오 콘텐츠의 출처 검증을 위한 오디오 워터마킹 기법의 실효성을 평가하는 연구이다. 다양한 제거 공격에 대한 저항력을 주장하는 22가지 오디오 워터마킹 기법들을 분류하고, 각 기법의 기술적 배경과 취약점을 분석한다. 신호 레벨, 물리적 레벨, AI 유발 왜곡을 포함한 22가지 유형의 제거 공격(109가지 설정)을 포괄하는 평가 프레임워크를 구축하여, 9가지 오디오 워터마킹 기법을 재현하고 8가지의 새로운 고효율 공격을 식별하였다. 3개의 공개 데이터셋을 이용한 대규모 실험 결과, 조사된 어떤 기법도 모든 테스트 왜곡에 견딜 수 없음을 밝혔다. 본 연구는 실제 위협 하에서 현재 워터마킹 기법의 성능에 대한 포괄적인 관점을 제공하며, 데모와 코드는 https://sokaudiowm.github.io/ 에서 확인 가능하다.