Cet article aborde l'une des tâches les plus courantes en gestion de données scientifiques multimodales : récupérer les k éléments les plus similaires (ou k plus proches voisins, KNN) d'une base de données à partir d'un nouvel élément. Les avancées récentes en matière de modèles d'apprentissage automatique multimodaux fournissent des indices sémantiques, appelés « vecteurs d'intégration », cartographiés à partir des données multimodales d'origine. Cependant, les vecteurs d'intégration obtenus comportent généralement des centaines, voire des milliers de dimensions, ce qui les rend peu pratiques pour les applications scientifiques sensibles au facteur temps. Cet article propose une méthode permettant de réduire la dimensionnalité du vecteur d'intégration de sortie par réduction de dimensionnalité préservant l'ordre (OPDR), où l'ensemble des k plus proches voisins reste inchangé dans l'espace de faible dimension après réduction de dimensionnalité. Pour y parvenir, nous posons l'hypothèse centrale selon laquelle, en analysant les relations intrinsèques entre les paramètres clés lors de la réduction de dimensionnalité, nous pouvons construire une fonction quantitative révélant la corrélation entre la dimension cible (de dimension inférieure) et d'autres variables. Pour prouver cette hypothèse, cet article définit d'abord une fonction métrique formelle quantifiant la similarité KNN pour un vecteur donné. Il étend ensuite cette métrique à la précision globale dans l'espace métrique global, puis dérive une fonction fermée entre la dimensionnalité cible (faible dimension) et d'autres variables. Enfin, il intègre cette fonction fermée aux méthodes courantes de réduction de dimensionnalité, à diverses métriques de distance et aux modèles d'intégration.