본 논문은 AI 생성 오디오 콘텐츠의 출처 검증을 위한 오디오 워터마킹 기법의 실효성을 다양한 제거 공격에 대한 저항성 측면에서 평가한 연구이다. 22개의 오디오 워터마킹 기법을 분류하고, 각 기법의 기술적 배경과 취약점을 분석하였다. 109가지 설정을 가진 22가지 유형의 제거 공격(신호 레벨, 물리적 레벨, AI 유발 왜곡 포함)을 포함하는 평가 프레임워크를 구축하여 9가지 오디오 워터마킹 기법을 재현하고, 8가지의 새로운 효과적인 공격 기법을 제시하였다. 3개의 공개 데이터셋을 사용한 대규모 실험 결과를 통해, 조사된 어떤 기법도 모든 테스트 왜곡에 견딜 수 없다는 것을 밝혔다. 연구 결과는 현실 세계의 위협 하에서 현재 워터마킹 방법의 성능에 대한 포괄적인 관점을 제공한다.