본 논문은 확산 모델(Diffusion Models, DMs) 기반의 음성 복제(Voice Cloning, VC) 기술의 악의적 남용 위험 증가에 대응하여, 새로운 방어 프레임워크인 VoiceCloak을 제안한다. VoiceCloak은 기존의 음성 복제 모델 방어 기법과 달리 DMs의 복잡한 생성 메커니즘을 고려하여, 참조 오디오에 적대적 섭동을 도입함으로써 음성 복제 과정을 방해한다. 구체적으로, 화자 식별 정보 왜곡을 통해 화자 식별을 모호하게 하고, 주의 집중 메커니즘을 교란하여 복제된 음성의 품질을 저하시킨다. 실험 결과, VoiceCloak이 DMs 기반의 무단 음성 복제에 대해 뛰어난 방어 성공률을 보임을 확인했다.