본 논문은 분산 환경에서 자원 제약이 있는 로컬 장치 상의 사전 훈련된 언어 모델(PLM)에 대한 개인 정보 보호 및 효율성 문제를 해결하기 위해 유망한 솔루션으로 떠오른 FedPEFT(Federated Parameter-Efficient Fine-Tuning)의 두 가지 주요 한계점, 즉 장치 간 데이터의 이질성으로 인한 성능 저하와 고정된 매개변수 구성으로 인한 통신 비효율성을 다룹니다. 이를 극복하기 위해, 본 논문은 언어 모델의 연합 매개변수 효율적인 미세 조정을 위한 새로운 적응형 순위 할당 프레임워크인 FedARA를 제안합니다. FedARA는 클라이언트 간 유사한 특징 표현을 향상시키고 데이터 이질성의 부정적인 영향을 완화하기 위해 Truncated SVD(Singular Value Decomposition) 적응을 사용하고, 중요한 순위를 점진적으로 식별하여 통신 효율성을 개선하기 위해 동적 순위 할당을 사용하며, 비활성 모듈을 자동으로 제거하여 각 연합 학습 라운드에서 로컬 계산 비용과 메모리 사용량을 줄이기 위해 순위 기반 모듈 가지치기를 활용합니다. 광범위한 실험 결과, FedARA는 이질적인 데이터 하에서 다양한 데이터셋과 모델에 걸쳐 기준 모델보다 평균 6.95%~8.49% 향상된 성능을 보였으며, 통신 효율성도 2.40배 향상되었습니다. 또한, 다양한 에지 장치에 대한 실험을 통해 총 훈련 시간과 에너지 소비량이 최대 48.90%와 46.95%까지 감소함을 보여주었습니다.