본 논문은 2500명의 참가자를 대상으로 한 무작위 실험을 통해, 이념적 중립성을 강조하는 기존 AI 시스템이 인간의 의사결정에 있어 인지적 참여를 억제함으로써 자동화 편향을 유발할 수 있다는 점을 시험합니다. 정치적으로 다양한 GPT-4o 변형체를 사용하여 정보 평가 작업에서 참가자들이 AI와 상호작용하도록 했습니다. 그 결과, 편향된 AI 어시스턴트가 중립적인 AI보다 인간의 성과를 향상시키고 참여도를 높이며 평가 편향을 줄이는 것으로 나타났으며, 특히 참가자들이 상반된 견해에 직면했을 때 효과가 더욱 컸습니다. 하지만 이러한 이점은 신뢰 저하라는 비용을 수반했습니다. 참가자들은 편향된 AI를 과소평가하고 중립적인 시스템을 과대평가했습니다. 참가자들에게 인간의 관점을 둘러싼 편향을 가진 두 개의 AI를 보여줌으로써 인식과 성과 간의 격차를 해소했습니다. 이러한 결과는 AI 중립성에 대한 기존의 통념을 복잡하게 만들며, 다양한 문화적 편향을 전략적으로 통합하면 개선되고 탄력적인 인간의 의사결정을 촉진할 수 있음을 시사합니다.