Cet article propose un nouveau cadre d'optimisation parcimonieuse (SO) pour répondre aux contraintes de surapprentissage et de calcul rencontrées lors de l'adaptation des modèles vision-langage (VLM) à de nouveaux domaines. Contrairement aux méthodes de reparamétrisation basse dimensionnelle existantes, SO exploite la parcimonie haute dimensionnelle des paramètres pour mettre à jour dynamiquement un nombre restreint de paramètres. Plus précisément, il introduit deux paradigmes : « parsité locale et densité globale » et « aléatoire local et importance globale » pour atténuer le surapprentissage et garantir une adaptation stable dans les environnements à faible volume de données. Les résultats expérimentaux sur 11 jeux de données différents démontrent que SO atteint des performances d'adaptation à quelques coups de pointe tout en réduisant la charge mémoire.