음성 인증 시스템(VAS)은 고유한 음성 특성을 사용하여 사용자를 인증하며, 은행 및 의료와 같은 고부가가치 산업에 널리 사용되고 있다. 딥러닝 기술을 통해 성능이 향상되었음에도 불구하고, 딥페이크 및 적대적 공격과 같은 정교한 위협에 취약하다. 현실적인 음성 복제의 등장은 진위 여부 구별을 어렵게 하며, 기존의 안티 스푸핑 대책(CM)은 정적 탐지 모델에 의존하여 새로운 적대적 공격에 쉽게 우회될 수 있다. 본 논문에서는 인간의 귀에는 들리지 않는 주파수 영역을 전략적으로 조작하는 새로운 공격 방법인 Spectral Masking and Interpolation Attack (SMIA)를 제안한다. SMIA는 음성을 사람이 인식할 수 없는 영역에서 변경하여, CM을 속이는 동시에 실제 음성과 유사하게 들리는 적대적 샘플을 생성한다. SOTA 모델에 대한 광범위한 평가를 통해 SMIA는 VAS/CM 시스템에 대해 82% 이상의 공격 성공률(ASR), 독립형 화자 인증 시스템에 대해 97.5% 이상, 그리고 CM에 대해 100%의 성공률을 달성했다.