본 논문은 연합 학습(FL)에서 자원 제약이 있는 클라이언트들의 부담을 줄이기 위해 이종의 맞춤형 하위 모델을 제공하는 클라이언트 친화적인 FL 프레임워크인 FedConv를 제안합니다. 기존 FL의 동질적인 대규모 글로벌 모델 전송 방식과 달리, FedConv는 합성곱 압축을 통해 이종 하위 모델의 매개변수를 학습하는 새로운 학습-모델 패러다임을 채택합니다. 압축된 모델은 압축 해제 없이 클라이언트에서 직접 학습될 수 있으며, 서버는 소규모 공개 데이터셋을 활용하여 압축 및 팽창 과정을 최적화합니다. 서로 다른 크기의 하위 모델들을 통합하기 위해 전치 합성곱 팽창(transposed convolutional dilation) 기법을 사용하여 개인화된 정보를 유지하면서 대규모 모델로 변환합니다. 여섯 개의 데이터셋에 대한 실험 결과, FedConv는 기존 FL 시스템보다 모델 정확도(평균 35% 이상 향상), 연산 및 통신 오버헤드(각각 33% 및 25% 감소) 측면에서 우수한 성능을 보였습니다.