Este artículo propone AdaRing, un marco de ajuste fino basado en adaptadores para la aplicación eficiente de modelos de lenguaje de visión (VLM) preentrenados a gran escala a diversas subtareas. Los métodos existentes de ajuste fino basados en adaptadores los integran en todas las capas para aumentar su capacidad. Sin embargo, ignoran la redundancia entre capas, lo que limita las tasas de compresión y la capacidad expresiva de los adaptadores homogéneos. AdaRing logra una adaptación ultraligera y eficiente en parámetros de los VLM mediante la integración y colaboración de múltiples adaptadores basada en la Descomposición de Anillo Tensorial (TRD) entre capas. Para eliminar la alta redundancia entre adaptadores entre capas, se aprovecha el bajo rango a nivel de tensor para formalizar los adaptadores en núcleos tensoriales compartidos por capa y segmentos específicos de capa. Además, tras un ajuste fino con capacidad de generalización, varios adaptadores basados en clases colaboran para gestionar tareas que requieren diferentes representaciones. Los resultados experimentales demuestran que AdaRing alcanza un rendimiento de vanguardia a la vez que reduce el requisito promedio de parámetros de entrenamiento en un 90 %.