본 논문은 연합 학습(Federated Learning, FL)의 자원 제약 문제를 해결하기 위해 초기화 시 가지치기(Pruning at Initialization, PaI)를 활용한 새로운 효율적인 FL 프레임워크인 FedPaI를 제안합니다. FedPaI는 훈련 초기 단계에서 최적의 희소 연결을 식별하여 모델 용량을 극대화하고 통신 및 계산 오버헤드를 크게 줄입니다. 다양한 하드웨어 및 소프트웨어 환경에 적응하기 위해 구조적 및 비구조적 가지치기를 모두 지원하며, 개인화된 클라이언트 측 가지치기 메커니즘과 희소성 인식 서버 측 집계를 도입하여 효율성을 향상시킵니다. 실험 결과, FedPaI는 기존의 반복적 가지치기를 적용하는 효율적인 FL보다 성능과 정확도 면에서 우수하며, 최대 98%의 극단적인 희소성 수준을 달성하면서도 비가지치기 기준 모델과 비교해 정확도 저하 없이 6.4~7.9배 빠른 훈련 속도를 보였습니다.