본 논문은 데이터 공유 없이 협업 학습을 가능하게 하는 연합 학습(FL)에서 겪는 공정성 확보와 민감한 클라이언트 데이터 보호의 어려움을 해결하고자 한다. 차등적 프라이버시를 보장하는 공정한 연합 학습 알고리즘(FedPF)을 제안하며, 공정성 및 프라이버시 제약 조건이 모델 유용성과 경쟁하는 제로섬 게임으로 다중 목표 최적화를 변환한다. 이론적 분석을 통해 엄격한 프라이버시 보호가 인구 통계적 편향 감지 및 수정 능력을 제한하는 역 관계를 밝히고, 공정성과 개인 정보 보호 간의 긴장을 보여준다. 또한, 적절한 공정성 제약 조건이 성능 저하 전에 초기 모델 일반화를 향상시키는 비단조 관계를 증명한다. 실험 결과는 최대 42.9%의 차별 감소와 경쟁력 있는 정확도를 보였으며, 개인 정보 보호와 공정성을 동시에 달성하기 위해서는 균형 잡힌 타협이 필요함을 시사한다.