Este artículo propone un nuevo marco de Optimización Dispersa (OS) para abordar el sobreajuste y las limitaciones computacionales que se presentan en la adaptación de Modelos de Lenguaje de Visión (MLV) a nuevos dominios. A diferencia de los métodos de reparametrización de baja dimensión existentes, la OS aprovecha la escasez de parámetros de alta dimensión para actualizar dinámicamente solo un pequeño número de parámetros. Específicamente, introduce dos paradigmas: escasez local y densidad global, y aleatoriedad local e importancia global, para mitigar el sobreajuste y garantizar una adaptación estable en entornos con pocos datos. Los resultados experimentales en 11 conjuntos de datos diversos demuestran que la OS logra un rendimiento de adaptación de vanguardia en pocos intentos, a la vez que reduce la sobrecarga de memoria.