Bài báo này xem xét, thông qua một thí nghiệm ngẫu nhiên với 2.500 người tham gia, cách các hệ thống AI hiện có, nhấn mạnh vào tính trung lập về ý thức hệ, có thể gây ra sự thiên vị tự động hóa bằng cách ngăn chặn sự tham gia nhận thức của con người vào quá trình ra quyết định. Sử dụng một biến thể GPT-4o đa dạng về chính trị, những người tham gia đã tương tác với AI trong một nhiệm vụ đánh giá thông tin. Kết quả cho thấy một trợ lý AI có thiên vị hoạt động tốt hơn một AI trung lập, tăng sự tham gia và giảm sự thiên vị đánh giá, đặc biệt là khi những người tham gia gặp phải các quan điểm trái ngược nhau. Tuy nhiên, lợi ích này phải trả giá bằng việc giảm lòng tin: những người tham gia đánh giá thấp AI có thiên vị và đánh giá quá cao hệ thống trung lập. Khoảng cách giữa nhận thức và hiệu suất đã được thu hẹp bằng cách cho những người tham gia tiếp xúc với hai hệ thống AI có thiên vị xoay quanh quan điểm của con người. Những kết quả này thách thức quan niệm thông thường về tính trung lập của AI và cho thấy rằng việc kết hợp chiến lược các thiên vị văn hóa đa dạng có thể thúc đẩy quá trình ra quyết định của con người được cải thiện và linh hoạt hơn.