본 연구는 적대적 예제와 정상 샘플 간의 내재적 차이를 이해하여 DNN의 견고성을 향상시키고 적대적 공격을 탐지하는 데 중점을 둡니다. 이미지 기반 적대적 예제가 폐색에 특히 민감하다는 것을 발견하고, CIFAR-10 데이터셋에서 9가지 공격을 사용하여 생성된 적대적 예제와 정상 샘플을 비교했습니다. Sliding Mask Confidence Entropy (SMCE)를 도입하여 폐색 하에서 모델 신뢰도 변동을 정량화하고, SMCE 계산을 통해 적대적 예제가 정상 샘플보다 폐색 하에서 유의하게 높은 신뢰도 변동성을 보임을 확인했습니다. 이를 바탕으로 Sliding Window Mask-based Adversarial Example Detection (SWM-AED)를 제안하여 기존 적대적 훈련의 치명적인 과적합을 방지했습니다. CIFAR-10에서 여러 분류기 및 공격에 대한 평가 결과, 대부분의 경우 62% 이상, 최대 96.5%의 정확도로 견고한 성능을 보였습니다.