Cet article examine expérimentalement si les modèles linguistiques à grande échelle (MLL) présentent un biais en faveur des informations générées par les LLM, et si ce biais pourrait conduire à une discrimination envers les humains. À l'aide de LLM largement utilisés tels que GPT-3.5 et GPT-4, nous avons mené des expériences à double choix. Nous avons présenté des descriptions de produits (biens de consommation, articles universitaires et films) rédigées par des humains ou des LLM, et observé les choix effectués par des assistants basés sur les LLM. Les résultats ont montré que l'IA basée sur les LLM favorisait systématiquement les options présentées par les LLM. Cela suggère que les futurs systèmes d'IA pourraient potentiellement exclure les humains et offrir des avantages injustes aux agents IA et aux humains assistés par l'IA.