Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

FLTG: Byzantine-Robust Federated Learning via Angle-Based Defense and Non-IID-Aware Weighting

Created by
  • Haebom

저자

Yanhua Wen, Lu Ai, Gang Liu, Chuang Li, Jianhao Wei

개요

본 논문은 연합 학습(Federated Learning, FL)에서 모델 집계 과정 중 발생하는 비잔틴 공격에 대한 새로운 방어 알고리즘인 FLTG를 제안합니다. FLTG는 각도 기반 방어 및 동적 참조 선택을 통합하여 높은 악성 클라이언트 비율 및 비 i.i.d. 데이터에 대한 민감성 문제를 해결합니다. 서버 측의 깨끗한 데이터셋을 활용하여 ReLU-clipped cosine similarity 기반으로 클라이언트를 필터링하고, 이전 글로벌 모델을 기반으로 동적으로 참조 클라이언트를 선택하여 비 i.i.d. 편향을 완화합니다. 또한, 각도 편차에 반비례하는 집계 가중치를 할당하고, 악성 크기 조정을 억제하기 위해 업데이트 크기를 정규화합니다. 다양한 복잡성의 데이터셋과 다섯 가지의 일반적인 공격에 대한 평가 결과, FLTG는 극단적인 편향 시나리오에서 최첨단 방법보다 우수한 성능을 보이며, 50% 이상의 높은 악성 클라이언트 비율에서도 강건성을 유지합니다.

시사점, 한계점

시사점:
높은 악성 클라이언트 비율(50% 이상)에서도 강건한 연합 학습 모델 집계 알고리즘을 제시합니다.
각도 기반 방어 및 동적 참조 선택을 통해 비 i.i.d. 데이터 문제와 악성 공격에 효과적으로 대응합니다.
다양한 공격 시나리오에서 기존 방법보다 우수한 성능을 보임을 실험적으로 증명합니다.
한계점:
제안된 방법의 계산 복잡도에 대한 분석이 부족합니다.
서버 측에 깨끗한 데이터셋이 필요하다는 점이 실제 적용에 제약이 될 수 있습니다.
다양한 공격 유형에 대한 포괄적인 평가가 필요할 수 있습니다.
특정 공격 유형에 대한 취약성 여부에 대한 추가 분석이 필요합니다.
👍