분산형 연합학습(DFL)은 데이터 직접 교환을 피하는 모델 공유 메커니즘으로 인해 개인정보 보호 머신러닝 패러다임으로 널리 인식되고 있습니다. 그러나 모델 훈련은 민감한 정보를 추론하는 데 사용될 수 있는 활용 가능한 흔적을 남깁니다. DFL에서 참가자들이 어떻게 연결되는지를 정의하는 토폴로지는 모델의 개인 정보 보호, 강력성 및 수렴성을 형성하는 데 중요한 역할을 합니다. 그러나 토폴로지는 탐험되지 않은 취약성을 도입합니다. 공격자는 이를 이용하여 참가자 관계를 추론하고 표적 공격을 시작할 수 있습니다. 본 연구는 모델 동작만으로 토폴로지를 추론하는 새로운 토폴로지 추론 공격을 제안하여 DFL 토폴로지의 숨겨진 위험을 밝힙니다. 공격자의 능력과 지식에 따라 분류하는 토폴로지 추론 공격의 분류 체계가 소개됩니다. 다양한 시나리오에 대한 실용적인 공격 전략이 설계되고, 공격 성공에 영향을 미치는 주요 요인을 식별하기 위해 실험이 수행됩니다. 결과는 각 노드의 모델만 분석해도 DFL 토폴로지를 정확하게 추론할 수 있음을 보여주며, DFL 시스템의 심각한 개인 정보 보호 위험을 강조합니다. 이러한 결과는 DFL 환경에서 개인 정보 보호 향상에 대한 귀중한 통찰력을 제공합니다.