본 논문은 물리 과학에서 머신러닝 분석의 활용에 필수적인 머신러닝 분석의 불확실성 정량화에 초점을 맞추고 있다. 특히, 신경망의 초기화 분포에서 유래하는 불확실성에 주목하여, 무한 너비 한계에서 신경 탄젠트 커널(NTK) 초기화를 사용한 다층 퍼셉트론(MLP) 앙상블의 테스트 손실 $\mathcal{L}$의 평균 $\mu_{\mathcal{L}}$과 분산 $\sigma_{\mathcal{L}}^2$를 계산하고, MNIST 분류, CIFAR 분류, 칼로리미터 에너지 회귀 세 가지 예시 작업에 대해 유한 너비 네트워크의 결과와 경험적으로 비교한다. 훈련 세트 크기 $N_\mathcal{D}$의 함수로 $\mu_{\mathcal{L}}$과 $\sigma_{\mathcal{L}}$에 대한 스케일링 법칙을 관찰하지만, 변동 계수 $\epsilon_{\mathcal{L}} \equiv \sigma_{\mathcal{L}}/\mu_{\mathcal{L}}$는 충분히 큰 $N_\mathcal{D}$에 대해 무한 너비와 유한 너비 모두에서 $N_\mathcal{D}$와 무관하게 됨을 발견한다. 이는 유한 너비 네트워크의 변동 계수가 무한 너비 값으로 근사될 수 있으며, 원칙적으로 유한 너비 섭동 이론을 사용하여 계산될 수 있음을 시사한다.