본 논문은 이종 분산 학습 환경에서의 심층 연합 회귀의 일반화 오차를 이 단계 샘플링 모델을 통해 분석합니다. 특히, 네트워크 크기를 적절히 선택할 경우, 엔트로피 차원으로 특징지어지는 내재적 차원이 심층 학습 모델의 수렴 속도를 결정하는 데 중요한 역할을 한다는 것을 밝힙니다. 응답 변수와 설명 변수 간의 관계가 β-Holder 함수로 표현될 때, m개의 클라이언트로부터 n개의 i.i.d. 샘플을 얻을 경우, 참여 클라이언트의 오차율은 최대 $\Tilde{O}((mn)^{-2\beta/(2\beta + \bar{d}{2\beta}(\lambda))})$로, 비참여 클라이언트의 오차율은 $\Tilde{O}(\Delta \cdot m^{-2\beta/(2\beta + \bar{d}{2\beta}(\lambda))} + (mn)^{-2\beta/(2\beta + \bar{d}{2\beta}(\lambda))})$로 확장됨을 보입니다. 여기서 $\bar{d}{2\beta}(\lambda)$는 설명 변수의 주변 분포 λ의 $2β$-엔트로피 차원을 나타내고, Δ는 두 단계 샘플링 방식 간의 의존성을 나타냅니다. 결론적으로, 본 논문은 클라이언트의 이질성을 명시적으로 고려하고, 심층 연합 학습 모델의 오차 수렴 속도가 데이터의 명목상 고차원성이 아닌 내재적 차원에 의존함을 강조합니다.