Este artículo compara y analiza la imparcialidad entre los modelos de aprendizaje automático (ML) y los evaluadores humanos utilizando datos de 870 solicitantes de admisión a la universidad. Las predicciones se realizaron utilizando tres modelos de ML: XGB, Bi-LSTM y KNN, junto con incrustaciones BERT. Los evaluadores humanos estaban compuestos por expertos de diversos orígenes. Para evaluar la imparcialidad individual, introdujimos una métrica de consistencia que mide la concordancia entre los modelos de ML y las decisiones de los evaluadores humanos. Los resultados del análisis mostraron que los modelos de ML superaron a los evaluadores humanos en un 14,08% frente a un 18,79% en consistencia de imparcialidad. Esto demuestra el potencial de aprovechar el ML para mejorar la imparcialidad en el proceso de admisión manteniendo al mismo tiempo un alto nivel de precisión, y proponemos un enfoque híbrido que combina el juicio humano y los modelos de ML.