본 논문은 딥 뉴럴 네트워크(DNN)에서 정규화 방법의 역할을 용량 제어 관점에서 이론적으로 설명하는 연구이다. 정규화가 최적화 및 일반화에 기여하는 근본적인 메커니즘을 밝히는 것을 목표로 하며, 특히 DNN 구조에서 여러 정규화 레이어를 사용할 때의 효과에 주목한다. 논문은 정규화되지 않은 DNN이 과도한 용량과 잠재적인 과적합을 나타낼 수 있음을 증명하고, 정규화 레이어 삽입이 립시츠 상수를 지수적으로 감소시킬 수 있음을 보인다. 이로 인해 손실 함수의 평활화, 최적화 속도 향상, 네트워크의 유효 용량 제한 및 일반화 성능 향상으로 이어진다.