본 논문은 연합 학습(FL)에서 클라이언트 간 데이터 이질성으로 인한 모델 훈련 성능 저하 문제를 해결하기 위해, 적응형 최적화 기법(예: Adam)에 클라이언트 드리프트 보상 기법을 통합한 새로운 알고리즘 FAdamGC를 제안합니다. 기존 드리프트 보상 기법들은 확률적 경사 하강법(SGD) 기반 훈련에만 초점을 맞추었으나, FAdamGC는 적응형 최적화 방법의 모멘텀 구조에 맞춰 사전 예측 보정 항을 도입하여 이질적인 환경에서도 성능 저하 없이 성능을 향상시킵니다. 비볼록 설정 하에서 알고리즘의 수렴성 분석을 통해 기존 방법보다 더 나은 수렴 속도와 완화된 가정을 제시하며, 실험 결과를 통해 다양한 수준의 데이터 이질성에서 기존 방법보다 통신 및 계산 비용 측면에서 우수한 성능을 보임을 입증합니다.