본 논문은 개인 정보 보호를 위한 연합 학습(FL)의 취약점을 분석하고, 모델 유용성과 그룹 공정성을 동시에 저해하는 새로운 공격 방법인 Dual-Facet Attack (DFA)을 제안합니다. DFA는 두 가지 변형(S-DFA, Sp-DFA)으로 구분되며, 실험 결과 기존의 FL 방어 기법들이 DFA에 효과적으로 대응하지 못함을 확인했습니다. 이에 대응하기 위해, 본 논문은 공정성 인식 기준 모델을 활용하고 신뢰할 수 있는 업데이트만 선택적으로 집계하는 자체 적응형 방어 프레임워크인 GuardFed를 제안합니다. GuardFed는 다양한 환경에서 정확도와 공정성을 모두 유지하며, 기존 FL 방어 기법보다 우수한 성능을 보였습니다.
시사점, 한계점
•
시사점:
◦
FL 환경에서 모델의 유용성과 공정성을 동시에 저해하는 새로운 공격 방법론 제시 (DFA).