딥 뉴럴 네트워크(DNN)가 민감한 분야에 널리 사용되면서, DNN의 보안과 견고성을 보장하는 것이 중요해졌다. 적대적 공격은 DNN에 대한 주요 위협으로, 작은 입력 변화가 잘못된 예측으로 이어질 수 있다. 최근 적대적 훈련의 발전은 외부 데이터 세트 또는 생성 모델에서 추가적인 예시를 통합하여 견고성을 향상시킨다. 그러나 이러한 방법은 종종 높은 계산 비용을 발생시켜 실용성을 제한하고 실제 적용을 방해한다. 본 논문에서는 립시츠 연속성을 기반으로 하는 비용 효율적인 대안을 제안하며, 광범위한 보조 데이터로 훈련된 모델과 유사한 견고성을 달성한다. 기존의 적대적 훈련과 달리, 제안하는 방법은 기울기 추정 없이 데이터 세트를 한 번만 통과하면 되므로 매우 효율적이다. 또한, 기존의 적대적 훈련 프레임워크와 원활하게 통합될 수 있으며, 추가적인 생성 데이터 없이 모델의 견고성을 향상시킨다. 실험 결과는 제안하는 방법이 계산 오버헤드를 줄일 뿐만 아니라, 견고한 신경망의 방어 능력을 유지하거나 향상시킨다는 것을 보여준다. 이는 적대적 공격에 대한 실용적이고 확장 가능한 방어를 개발하는 유망한 방향을 제시한다.