본 논문은 생성 모델(GM)의 흔적을 제거하여 DeepFake의 출처 추적을 방지하는 새로운 공격 방법을 제시합니다. 기존의 DeepFake 속성 기술은 생성 모델의 흔적을 추출하여 출처를 추적할 수 있지만, 이를 회피하려는 여러 공격들이 등장했습니다. 하지만 기존 공격들은 생성 모델의 흔적을 완전히 제거하지 못했습니다. 본 논문에서는 생성 모델의 흔적을 근본적으로 제거하는 승산적(multiplicative) 공격 방법을 제시합니다. 이 방법은 실제 데이터만을 사용하여 훈련되는 범용적이고 블랙박스 방식의 적대적 모델로, 다양한 생성 모델과 속성 모델에 대해 적용 가능합니다. 실험 결과, 9개의 생성 모델로 생성된 DeepFake에 대해 6개의 고급 속성 모델을 대상으로 평균 97.08%의 공격 성공률을 달성했습니다. 방어 메커니즘이 존재하는 경우에도 72.39% 이상의 성공률을 유지했습니다. 이 연구는 승산적 공격이 제기하는 잠재적 위협과 더욱 강력한 속성 모델의 필요성을 강조합니다.