Este artículo investiga experimentalmente si los modelos de lenguaje a gran escala (LLM) presentan un sesgo hacia la información generada por ellos y si este sesgo podría conducir a la discriminación contra las personas. Utilizando LLM ampliamente utilizados, como GPT-3.5 y GPT-4, realizamos experimentos de doble elección en los que presentamos descripciones de productos (bienes de consumo, artículos académicos y películas) escritas por personas o LLM, y observamos las elecciones realizadas por asistentes basados en LLM. Los resultados mostraron que la IA basada en LLM favoreció sistemáticamente las opciones presentadas por los LLM. Esto sugiere que los futuros sistemas de IA podrían excluir a las personas y otorgar ventajas injustas tanto a los agentes de IA como a los humanos asistidos por IA.