Este artículo aborda el problema del sesgo en la selección de currículos mediante IA generativa. Si bien los sistemas de selección de currículos basados en IA se utilizan cada vez más bajo la premisa de que pueden reemplazar el juicio humano sesgado, cuestionamos la capacidad de evaluación de estos sistemas. Realizamos dos experimentos en ocho importantes plataformas de IA y descubrimos que algunos modelos presentan sesgos raciales y de género contextuales complejos que perjudican a los solicitantes basándose únicamente en indicadores demográficos. También observamos que algunos modelos aparentemente imparciales no realizan evaluaciones sustanciales y, en cambio, se basan en una coincidencia superficial de palabras clave, lo que denominamos la "ilusión de neutralidad". Por lo tanto, recomendamos adoptar un marco de doble verificación para detectar sesgos demográficos y la capacidad sustancial de estos sistemas, con el fin de garantizar la imparcialidad y la eficacia de las herramientas de reclutamiento con IA.