본 논문은 기존의 '양성 과적합(benign overfitting)' 개념을 확장하여 '거의 양성 과적합(almost benign overfitting)'을 제시합니다. 이는 모델이 훈련 데이터(잡음 포함)를 완벽하게 적합하면서 동시에 낮은(0이 아닌) 훈련 오차와 시험 오차를 달성하는 현상입니다. 신경망에서 흔히 관찰되는 이 현상을, 표본 크기와 모델 복잡도의 상호작용을 통해 고전적 회귀 모델에서도 발생 가능함을 이론적으로 증명합니다. 커널 리지 회귀와 2층 완전 연결 ReLU 신경망을 이용한 최소 제곱 회귀 분석을 통해 가설을 뒷받침하며, 기존 연구에서 필요했던 강한 가정들을 완화합니다. 특히 신경망에 대한 분석에서는 기저 회귀 함수나 잡음에 대한 가정 없이(유계성만 가정) 일반화 성능을 최초로 증명하였으며, 과잉 위험을 추정 오차와 근사 오차로 분해하고 경사 흐름을 암시적 정규화로 해석하는 새로운 증명 기법을 제시합니다.