본 논문은 연합 학습(Federated Learning, FL)에서 비잔틴 공격(Byzantine attacks)에 대한 강건한 대안으로 분산 최적화 기법을 제시한다. 기존의 연합 학습은 집계 기반 프로토콜에 의존하여 비잔틴 공격에 취약하지만, 본 논문에서는 프라이멀-듀얼 곱셈자 방법(Primal-Dual Method of Multipliers, PDMM)을 이용한 분산 최적화가 내재적인 내결함성 합의 메커니즘을 통해 비잔틴 공격의 영향을 완화함을 보여준다. MNIST, FashionMNIST, Olivetti 데이터셋을 사용한 실험을 통해 비트 반전 및 가우시안 노이즈 주입과 같은 다양한 공격 시나리오 하에서 PDMM이 기존의 집계 기반 접근 방식보다 높은 모델 유틸리티, 빠른 수렴 속도 및 향상된 안정성을 달성함을 확인했다.