Cet article examine, à travers une expérience randomisée menée auprès de 2 500 participants, comment les systèmes d’IA existants, qui privilégient la neutralité idéologique, peuvent induire un biais d’automatisation en supprimant l’engagement cognitif humain dans la prise de décision. En utilisant une variante politiquement diversifiée du GPT-4o, les participants ont interagi avec l’IA lors d’une tâche d’évaluation d’informations. Les résultats ont montré qu’un assistant IA biaisé surpassait une IA neutre, augmentait l’engagement et réduisait le biais d’évaluation, en particulier lorsque les participants étaient confrontés à des points de vue contradictoires. Cependant, cet avantage s’est fait au prix d’une perte de confiance : les participants ont sous-estimé l’IA biaisée et surestimé le système neutre. L’écart entre perception et performance a été comblé en exposant les participants à deux systèmes d’IA biaisés par les perspectives humaines. Ces résultats remettent en question les idées reçues sur la neutralité de l’IA et suggèrent qu’une intégration stratégique de divers biais culturels peut favoriser une prise de décision humaine améliorée et plus résiliente.