Bài báo này nghiên cứu thực nghiệm xem liệu các mô hình ngôn ngữ quy mô lớn (LLM) có biểu hiện thiên vị đối với thông tin do LLM tạo ra hay không, và liệu thiên vị này có thể dẫn đến sự phân biệt đối xử với con người hay không. Sử dụng các LLM được sử dụng rộng rãi như GPT-3.5 và GPT-4, chúng tôi đã tiến hành các thí nghiệm lựa chọn kép, trong đó chúng tôi trình bày các mô tả sản phẩm (hàng tiêu dùng, bài báo học thuật và phim ảnh) do con người hoặc LLM viết và quan sát các lựa chọn do trợ lý dựa trên LLM đưa ra. Kết quả cho thấy AI dựa trên LLM luôn ưu tiên các lựa chọn do LLM đưa ra. Điều này cho thấy các hệ thống AI trong tương lai có khả năng loại trừ con người và mang lại lợi thế không công bằng cho cả tác nhân AI và con người được AI hỗ trợ.