과매개화된 신경망이 과매개화 수준 및 Vapnik-Chervonenkis (VC) 차원과 무관하게 독립적인 테스트 오류를 가지고 일반화할 수 있다는 것을 증명합니다. 본 논문은 테스트 및 훈련 세트의 메트릭 기하학, 활성화 함수의 규칙성, 가중치의 연산자 노름 및 바이어스의 노름에만 의존하는 명시적인 경계를 증명합니다. 입력 공간 차원에 의해 제한된 훈련 샘플 크기를 가진 과매개화된 깊은 ReLU 네트워크의 경우, 경사 하강법을 사용하지 않고 제로 손실 최소화자를 명시적으로 구성하고, 일반화 오류가 네트워크 아키텍처와 무관함을 증명합니다.