딥 뉴럴 네트워크(DNN)는 적대적 공격에 취약하다. 이러한 취약점으로 인한 안전 문제를 해결하기 위해, 적대적 훈련(AT)이 DNN의 견고성을 향상시키는 가장 효과적인 방법으로 등장했다. 그러나 기존 AT 프레임워크는 주로 단일 또는 제한된 공격 유형에 초점을 맞춰, 실제에서 발생할 수 있지만 훈련 과정에서 다루지 않은 공격 유형에 DNN이 노출되는 문제를 야기한다. 본 논문에서는 이러한 문제를 해결하기 위해, Calibrated Adversarial Sampling (CAS)이라는 효율적인 미세 조정 방법을 제안한다. Multi-armed bandit 프레임워크 내에서 최적화 관점을 취하여, 여러 견고성 차원의 동적이고 상호 의존적인 특성을 고려하여 동적으로 보상을 설계하고 탐색과 활용의 균형을 유지한다. 벤치마크 데이터셋에 대한 실험 결과, CAS는 높은 정확도를 유지하면서 전반적인 견고성을 향상시키는 것을 보여주었으며, DNN의 견고한 일반화를 위한 새로운 패러다임을 제시한다.