Dans cet article, nous proposons un nouveau cadre d'attribution de classes adaptatif, FedARA, pour relever le défi __T17894_____ du réglage fin efficace des paramètres (PEFT) des modèles de langage pré-entraînés (PLM) dans des environnements distribués. FedARA utilise la SVD tronquée pour améliorer les représentations de caractéristiques similaires afin d'atténuer la dégradation des performances due à l'hétérogénéité des données entre les appareils, exploite l'attribution dynamique de classes pour améliorer l'efficacité de la communication et applique l'élagage des modules basé sur les classes pour réduire les coûts de calcul et l'utilisation de la mémoire. Les résultats expérimentaux sur divers ensembles de données et modèles montrent que FedARA surpasse les méthodes existantes de 6,95 % à 8,49 % en moyenne et améliore l'efficacité de la communication d'un facteur 2,40. De plus, des expériences sur divers appareils périphériques démontrent une réduction allant jusqu'à 48,90 % et 46,95 % du temps d'apprentissage et de la consommation d'énergie, respectivement.