본 논문은 신경망의 일반화 성능을 향상시키기 위한 새로운 정규화 기법을 제안합니다. 기존의 경험적 위험 최소화(Empirical Risk Minimization) 방식을 수정하여, 데이터 입력 공간과 손실 값 사이의 매핑에 특정 수준의 부드러움(smoothness)을 강제합니다. 이는 신경망의 손실 함수가 데이터 영역에 걸쳐 타원형 연산자(elliptic operator)를 만족하도록 요구함으로써 달성됩니다. 이를 통해 기존의 타원형 연산자 이론을 활용하여 훈련 집합 외부의 점에 대한 오차의 행동을 예측할 수 있습니다. 본 논문에서는 타원형 연산자의 동작을 효율적으로 근사하는 계산 가능한 방법을 제안하고, 분포 이동(distribution shift) 및 그룹 불균형(group imbalance)과 같은 일반적인 문제에 대한 성능을 분석합니다. 실험 결과는 제안된 정규화 기법의 유용성을 확인합니다.