Cet article examine si la confiance humaine dans les textes générés par l'IA est limitée par des biais qui vont au-delà des préoccupations d'exactitude. Nous avons examiné la réaction des évaluateurs humains aux contenus étiquetés et non étiquetés dans le cadre de trois expériences : la révision de texte, les résumés d'articles de presse et la rédaction persuasive. Bien que les tests à l'aveugle n'aient pas permis de distinguer les deux types de textes, nous avons constaté que les évaluateurs humains préféraient de plus de 30 % les contenus étiquetés « générés par l'homme » à ceux étiquetés « générés par l'IA ». La même tendance a été observée lorsque les étiquettes étaient modifiées intentionnellement. Ce biais humain en IA a des implications sociales et cognitives plus larges, notamment la sous-estimation des performances de l'IA. Cette étude met en évidence les limites du jugement humain lors des interactions avec l'IA et pose les bases d'une amélioration de la collaboration homme-IA, notamment dans les domaines créatifs.