본 논문은 임의의 Lipschitz 활성화 함수와 일반적인 Lipschitz 손실 함수(매우 약한 조건 포함)를 갖는 다층 신경망에 대한 첫 번째 거의 완전한(본문에서 명확히 설명) 비점근적 일반화 이론을 제시합니다. 특히, 기존 문헌에서 일반적으로 가정하는 것처럼 손실 함수의 유계성을 요구하지 않습니다. 본 이론은 심층 학습에서 일반적으로 발생하는 현상과 일치하는 편향-분산 트레이드오프를 넘어섭니다. 따라서 신경망에 대한 기존의 다른 비점근적 일반화 오차 경계와는 명확히 다릅니다. 더 명확히 말하면, 본 논문은 신경망의 너비, 깊이 또는 기타 하이퍼파라미터가 무한대로 접근하거나, 특정 신경망 아키텍처(예: 스파스성, 특정 노름의 유계성), 특정 활성화 함수, 특정 최적화 알고리즘 또는 손실 함수의 유계성을 요구하지 않고, 근사 오차를 고려하여 임의의 Lipschitz 활성화 함수 σ(σ(0)=0)와 충분히 넓은 Lipschitz 손실 함수를 갖는 다층 신경망에 대한 명시적인 일반화 오차 상한을 제시합니다. 일반적인 Lipschitz 활성화 함수도 본 프레임워크에 포함될 수 있습니다. 본 이론의 특징은 근사 오차도 고려한다는 점입니다. 또한, 회귀 문제에 대한 다층 ReLU 네트워크의 거의 최소 최대(near minimax) 최적성을 보여줍니다. 특히, 본 상한은 이러한 네트워크에 대해 유명한 이중 하강 현상을 보여주는데, 이는 기존 결과와 비교하여 가장 두드러진 특징입니다. 본 연구는 심층 학습의 직관적이지 않은 특성을 포용하기 위해 많은 고전적인 결과를 개선해야 심층 학습에 대한 더 나은 이해를 얻을 수 있다는 관점을 강조합니다.