본 논문은 분산 환경에서 사전 훈련된 언어 모델(PLM)의 파라미터 효율적인 미세 조정(PEFT)의 한계점을 해결하기 위해 새로운 적응형 계급 할당 프레임워크인 FedARA를 제안합니다. FedARA는 장치 간 데이터 이질성으로 인한 성능 저하를 완화하기 위해 Truncated SVD를 사용하여 유사한 특징 표현을 향상시키고, 통신 효율을 개선하기 위해 동적 계급 할당을 활용하며, 계산 비용과 메모리 사용량을 줄이기 위해 계급 기반 모듈 가지치기를 적용합니다. 다양한 데이터셋과 모델에 대한 실험 결과, FedARA는 기존 방법보다 평균 6.95%~8.49% 향상된 성능을 보였으며, 통신 효율 또한 2.40배 향상되었습니다. 또한, 다양한 에지 장치에서의 실험을 통해 훈련 시간과 에너지 소비량이 최대 48.90% 및 46.95% 감소하는 것을 확인했습니다.