본 논문은 심층 신경망(DNN)이 유계 F₁-norm을 갖는 임의의 함수 합성을 효율적으로 학습할 수 있음을 보임으로써, 얕은 신경망이 할 수 없는 방식으로 차원의 저주를 극복할 수 있음을 제시합니다. 구체적으로, 합성성에 대한 커버링 넘버 논증과 넓은 너비 적응성에 대한 F₁-norm (또는 관련된 Barron norm)을 결합한 일반화 경계를 유도합니다. 본 논문은 DNN의 정규화된 손실의 전역 최소화점이, 예를 들어 g가 매끄럽고/정규적이며 차원을 감소시키는(예: g는 f의 대칭성의 몫 사상일 수 있음) 경우, 소량의 관측치로부터 두 함수 f = h∘g의 합성을 맞출 수 있음을 보입니다. 이는 h의 낮은 정규성에도 불구하고 h를 학습할 수 있게 합니다. 고려하는 정규성 척도는 서로 다른 미분 수준을 갖는 Sobolev norm이며, F₁ norm에 잘 적응됩니다. 실험적으로 스케일링 법칙을 계산하고, 이론적으로 예측된 대로 g 또는 h 중 어느 것이 학습하기 더 어려운지에 따라 상전이를 관찰합니다.