Este artículo aborda una de las tareas más comunes en la gestión de datos científicos multimodales: la recuperación de los k elementos más similares (o k vecinos más cercanos, KNN) de una base de datos dado un nuevo elemento. Los avances recientes en modelos de aprendizaje automático multimodal proporcionan índices semánticos, denominados "vectores de incrustación", mapeados a partir de los datos multimodales originales. Sin embargo, los vectores de incrustación resultantes suelen tener cientos o miles de dimensiones, lo que los hace poco prácticos para aplicaciones científicas con plazos de entrega ajustados. Este artículo propone un método para reducir la dimensionalidad del vector de incrustación de salida mediante la reducción de dimensionalidad con preservación del orden (OPDR), donde el conjunto de los k vecinos más cercanos principales permanece inalterado en el espacio de baja dimensionalidad tras la reducción de dimensionalidad. Para lograrlo, establecemos la hipótesis central de que, al analizar las relaciones intrínsecas entre los parámetros clave durante la reducción de dimensionalidad, podemos construir una función cuantitativa que revele la correlación entre la dimensión objetivo (de menor dimensionalidad) y otras variables. Para demostrar esta hipótesis, este artículo define primero una función métrica formal que cuantifica la similitud de KNN para un vector dado. Posteriormente, extiende esta métrica a la precisión agregada en el espacio métrico global y, a continuación, deriva una función de forma cerrada entre la dimensionalidad objetivo (de baja dimensión) y otras variables. Finalmente, integra esta función de forma cerrada en métodos populares de reducción de dimensionalidad, diversas métricas de distancia y modelos de incrustación.