적대적 학습(AT)은 적대적 강건성을 향상시키는 효과적인 기법이지만, 일반화 능력 저하라는 비용이 따른다. 최근 연구들은 적대적 학습을 보조하기 위해 정상적인 학습(clean training)을 사용하려는 시도를 했지만, 결론 간에 모순이 존재한다. 본 논문은 대표적인 전략들을 종합적으로 요약하고, 다중 관점 가설에 초점을 맞춰 서로 다른 연구 간의 모순되는 현상에 대한 통합적인 설명을 제공한다. 또한, 이전 연구에서 정상적으로 학습된 모델에서 적대적으로 학습된 모델로 전이되는 지식 결합을 심층적으로 분석하여, 학습 난이도 감소와 정확한 안내 제공이라는 두 가지 범주로 분류할 수 있음을 발견했다. 이러한 발견을 바탕으로, 고급 AT 방법의 성능을 더욱 향상시키기 위해 정상적인 학습을 활용하는 새로운 아이디어를 제안한다. AT가 직면하는 일반화 저하 문제는 특정 샘플 특징을 학습하는 데 있어 적대적 학습의 어려움에서 부분적으로 기인하며, 이 문제는 정상적인 학습을 충분히 활용함으로써 완화될 수 있음을 밝힌다.