Cet article propose TransMiter, un adaptateur léger pour un transfert adaptatif efficace des connaissances des modèles vision-langage (VLM). TransMiter comble les lacunes entre les VLM pré-entraînés et affinés grâce à une approche d'apprentissage non supervisé, transférant les connaissances sans rétropropagation. Composé d'un nombre réduit de couches, il présente un coût d'inférence minimal et l'ajout d'une petite quantité de données étiquetées améliore les performances par rapport au modèle robuste et affiné. Les résultats expérimentaux démontrent que TransMiter transfère efficacement les connaissances adaptatives entre des VLM de tailles et d'architectures variées, tout en préservant les capacités de généralisation.