과매개화된 신경망이 과매개화 수준과 VC 차원과 무관하게 독립적인 테스트 오류로 일반화될 수 있음을 증명한 논문입니다. 테스트 및 훈련 세트의 메트릭 기하학, 활성화 함수의 규칙성, 가중치의 연산자 노름 및 바이어스의 노름에만 의존하는 명시적인 경계를 증명합니다. 입력 공간 차원에 의해 제한된 훈련 샘플 크기를 갖는 과매개화된 심층 ReLU 네트워크의 경우, 경사 하강법을 사용하지 않고 제로 손실 최소화기를 명시적으로 구성하고, 일반화 오류가 네트워크 아키텍처와 무관함을 증명합니다.