본 논문은 심층 분류기의 견고성을 향상시키기 위해 입력 공간에서의 마진을 직접 조작하는 새로운 강건한 훈련 알고리즘을 제안합니다. 기존의 새로운 아키텍처 설계나 훈련 과정 수정 방식과 달리, 본 논문에서는 출력(logit) 공간에서의 마진을 증가시키는 동시에 취약한 방향을 따라 모델의 Lipschitz 상수를 규제하는 것을 목표로 합니다. 이를 위해 신경망의 Lipschitz 상수에 대한 정확하고 효율적인 미분 가능한 상한선을 계산하는 확장 가능한 방법을 개발하고, 활성화 계층의 단조성과 Lipschitz 연속성을 활용하여 Lipschitz 상수를 제어할 수 있는 새로운 계층을 설계합니다. MNIST, CIFAR-10, Tiny-ImageNet 데이터셋에서의 실험을 통해 기존 최고 성능과 비교하여 경쟁력 있는 결과를 얻음을 보여줍니다.