본 논문은 의료와 같이 고위험 분야에 인공지능을 적용할 때 공정성을 보장하는 것이 중요함을 강조하며, 불균형적이고 인구통계학적으로 치우친 데이터로 훈련된 예측 모델이 기존의 불평등을 악화시킬 위험성을 지적합니다. 연합 학습(FL)은 기관 간의 개인 정보 보호를 준수하는 협업을 가능하게 하지만, 특히 여러 민감한 속성이 교차될 때 알고리즘 편향과 하위 그룹 불균형에 취약합니다. 이에 본 논문은 공정성 인식 정규화와 그룹 조건부 과대 샘플링을 결합한 프레임워크 독립적인 방법인 FedIDA(Fed erated Learning for Imbalance and D isparity A wareness)를 제안합니다. FedIDA는 기본 FL 알고리즘의 수렴 동작을 변경하지 않고 여러 민감한 속성과 이기종 데이터 분포를 지원합니다. Lipschitz 연속성과 집중 불평등을 사용하여 공정성 개선 경계를 설정하는 이론적 분석을 제공하며, FedIDA가 테스트 세트에서 공정성 측정값의 분산을 줄임을 보여줍니다. 벤치마크 및 실제 임상 데이터 세트에 대한 실험 결과는 FedIDA가 공정성을 지속적으로 향상시키는 동시에 경쟁력 있는 예측 성능을 유지함을 확인하여 의료 분야에서 공정하고 개인 정보를 보호하는 모델링에 대한 효과를 입증합니다. 소스 코드는 GitHub에서 제공됩니다.