본 논문은 분산된 클라이언트 데이터셋에서 데이터 프라이버시를 유지하면서 협업 모델 훈련을 위한 효과적인 해결책으로 연합 학습(FL)을 제시합니다. 하지만 노이즈 레이블, 누락된 클래스, 불균형 분포와 같은 데이터 품질 문제는 연합 학습의 효과에 상당한 어려움을 야기합니다. 본 연구는 노이즈, 클래스 불균형, 누락된 레이블을 포함한 데이터 품질 문제를 체계적으로 해결하는 연합 학습 방법론을 제안합니다. 제안된 접근 방식은 적응형 노이즈 제거, 협업 조건부 GAN 기반 합성 데이터 생성 및 강력한 연합 모델 훈련을 통해 데이터 무결성을 체계적으로 향상시킵니다. MNIST 및 Fashion-MNIST 벤치마크 데이터셋에서 수행된 실험 평가는 다양한 노이즈 및 클래스 불균형 조건 하에서 특히 매크로 F1 점수 측면에서 연합 모델 성능의 상당한 향상을 보여줍니다. 또한, 제안된 프레임워크는 계산 가능성과 상당한 성능 향상 사이의 균형을 신중하게 맞춰 자원 제약이 있는 에지 장치에 대한 실용성을 보장하는 동시에 데이터 프라이버시를 철저히 유지합니다. 결과는 이 방법이 일반적인 데이터 품질 문제를 효과적으로 완화하여 다양한 실제 연합 학습 시나리오에 적합한 강력하고 확장 가능하며 개인 정보 보호 준수 솔루션을 제공함을 나타냅니다.