본 논문은 연합 학습(Federated Learning, FL) 환경에서의 신경망 구조 탐색(Neural Architecture Search, NAS)의 효율성을 높이기 위한 새로운 프레임워크인 FedMetaNAS를 제안합니다. FedMetaNAS는 메타 학습(meta-learning)을 FL과 NAS에 통합하여, 데이터의 이질성 문제를 해결하고, 탐색 공간을 효과적으로 축소하며 재훈련 단계를 생략함으로써 탐색 시간을 단축합니다. Gumbel-Softmax 재매개변수화를 사용하여 탐색 공간 내 혼합 연산을 완화하고, Model-Agnostic Meta-Learning을 통해 개별 작업에 대한 가중치와 구조 매개변수를 조정합니다. 메타 업데이트 후에는 소프트 가지치기를 통해 구조를 점진적으로 희소화하여 재훈련 없이 모델을 바로 사용할 수 있도록 합니다. 실험 결과, FedMetaNAS는 기존 FedNAS에 비해 50% 이상의 속도 향상과 높은 정확도를 달성했습니다.