Cet article a étudié l'impact d'une IA culturellement biaisée sur l'amélioration de la prise de décision humaine, au moyen d'une expérience randomisée menée auprès de 2 500 participants. En utilisant des variantes politiquement diverses du GPT-4o pour effectuer des tâches d'évaluation de l'information, l'assistant IA biaisé a surpassé les performances humaines, accru l'engagement et réduit les biais d'évaluation par rapport à une IA neutre. Cet effet était particulièrement significatif lorsque les participants étaient confrontés à des points de vue opposés. Cependant, cet avantage s'est fait au prix d'une perte de confiance : les participants ont sous-estimé l'IA biaisée et surestimé le système neutre. Lorsque les participants ont été confrontés à deux IA présentant des biais opposés concernant les perspectives humaines, l'écart entre perception et performance s'est réduit. Ces résultats remettent en question les idées reçues sur la neutralité de l'IA et suggèrent qu'une intégration stratégique de divers biais culturels peut favoriser une prise de décision humaine améliorée et plus résiliente.