본 논문은 연합 학습(FL)에서 통신 및 계산 능력의 이질성이 최적화 역학을 심각하게 왜곡하고 목표 불일치를 야기하여 최적점에서 멀리 떨어진 잘못된 정지점으로 글로벌 모델이 수렴하는 문제를 다룹니다. 이러한 이질성의 결합 효과는 상호 작용의 복잡성 때문에 거의 연구되지 않았습니다. 본 논문에서는 이질적인 통신 및 계산이 FL에서 불일치를 유발하는 근본적으로 다른 메커니즘을 밝히고, 일반적인 이질적인 FL에 대한 최초의 통합적인 이론적 분석을 제공하여 임의의 로컬 솔버 선택 하에서 두 가지 형태의 이질성이 최적화 경로를 어떻게 왜곡하는지에 대한 원칙적인 이해를 제공합니다. 이러한 통찰력을 바탕으로, 모든 유형의 목표 불일치를 제거하는 보편적인 방법인 Federated Heterogeneity-Aware Client Sampling(FedACS)을 제안합니다. FedACS는 동적인 이질적인 환경에서도 $O(1/\sqrt{R})$의 속도로 올바른 최적점에 수렴함을 이론적으로 증명합니다. 다양한 데이터 세트에 대한 광범위한 실험을 통해 FedACS가 최첨단 및 범주별 기준보다 4.3%-36% 우수하며, 통신 비용을 22%-89%, 계산 부하를 14%-105% 줄이는 것을 보여줍니다.