본 논문은 과매개모델(over-parameterized models)의 우수한 일반화 성능을 설명하는 데 기존의 일반화 경계(uniform generalization bounds)가 부족함을 지적하며, 덜 엄격한 가정 하에서 신경망의 일반화 성능을 연구합니다. 경험적 위험(empirical risk)을 최소화하거나 근사적으로 최소화하는 신경망의 일반화 성능에 대한 하한을 설정하고, 충분히 큰 훈련 샘플 수와 네트워크 크기 하에서 과매개모델을 포함한 신경망이 효과적으로 일반화될 수 있음을 보입니다. 또한, 특정 데이터 분포에 대해서는 일반화를 보장하기 위한 훈련 데이터의 양이 해당 데이터 분포를 표현하는 데 필요한 네트워크 크기보다 커야 함을 보이는 일반화의 필요조건을 제시합니다. 마지막으로, 강건한 일반화, 과매개모델의 중요성, 손실 함수가 일반화에 미치는 영향 등 딥러닝의 여러 현상에 대한 이론적 통찰력을 제공합니다.