Este artículo examina, a través de un experimento aleatorio con 2500 participantes, cómo los sistemas de IA existentes, que enfatizan la neutralidad ideológica, pueden inducir sesgo de automatización al suprimir la participación cognitiva humana en la toma de decisiones. Utilizando una variante políticamente diversa de GPT-4o, los participantes interactuaron con la IA en una tarea de evaluación de información. Los resultados mostraron que un asistente de IA sesgado superó a una IA neutral, aumentó la participación y redujo el sesgo de evaluación, particularmente cuando los participantes encontraron puntos de vista conflictivos. Sin embargo, este beneficio se produjo a costa de una menor confianza: los participantes subestimaron la IA sesgada y sobreestimaron el sistema neutral. La brecha entre la percepción y el rendimiento se cerró al exponer a los participantes a dos sistemas de IA con sesgos en torno a las perspectivas humanas. Estos resultados desafían la sabiduría convencional sobre la neutralidad de la IA y sugieren que la incorporación estratégica de diversos sesgos culturales puede fomentar una toma de decisiones humana mejorada y más resiliente.