Este artículo investigó el impacto de la IA con sesgo cultural en la mejora de la toma de decisiones humanas mediante un experimento aleatorio con 2500 participantes. Utilizando variantes políticamente diversas de GPT-4o para realizar tareas de evaluación de información, el asistente de IA con sesgo superó el rendimiento humano, aumentó la participación y redujo el sesgo de evaluación en comparación con una IA neutral. Este efecto fue particularmente significativo cuando los participantes se encontraron con puntos de vista opuestos. Sin embargo, este beneficio se produjo a costa de una menor confianza: los participantes subestimaron la IA con sesgo y sobreestimaron el sistema neutral. Cuando se mostraron a los participantes dos IA con sesgos opuestos en torno a las perspectivas humanas, la brecha entre la percepción y el rendimiento se redujo. Estos hallazgos desafían la creencia popular sobre la neutralidad de la IA y sugieren que la incorporación estratégica de diversos sesgos culturales puede fomentar una toma de decisiones humana mejorada y más resiliente.