Do các mô hình ngôn ngữ quy mô lớn (LLM) ngày càng được triển khai trong các vai trò ra quyết định tự động trong các lĩnh vực có rủi ro cao, bài báo này nghiên cứu liệu các mô hình được đào tạo trên dữ liệu do con người tạo ra có thể kế thừa các sai lệch nhận thức (ví dụ: đầu tư quá mức) làm sai lệch một cách có hệ thống phán đoán của con người hay không. Nghiên cứu này đã xem xét biểu hiện của các sai lệch LLM trong bốn điều kiện thử nghiệm: mô hình với tư cách là nhà đầu tư, mô hình với tư cách là cố vấn, tham vấn nhiều tác nhân và các kịch bản áp lực hỗn hợp sử dụng một nhiệm vụ đầu tư. Kết quả từ 6.500 thử nghiệm cho thấy các sai lệch LLM phụ thuộc rất nhiều vào bối cảnh. Trong khi bối cảnh quyết định cá nhân thể hiện logic chi phí-lợi ích hợp lý, thì tham vấn nhiều tác nhân lại thể hiện các hiệu ứng phân cấp rõ rệt. Cụ thể, việc ra quyết định dựa trên ngang hàng đối xứng dẫn đến đầu tư quá mức trong hầu hết các trường hợp. Tương tự, tỷ lệ đầu tư quá mức cũng cao dưới áp lực của tổ chức và cá nhân. Những kết quả này chứng minh rằng các sai lệch LLM không phải là cố hữu mà phụ thuộc rất nhiều vào bối cảnh xã hội và tổ chức, cung cấp những hiểu biết quan trọng cho việc triển khai các hệ thống đa tác nhân và các hoạt động không giám sát khi các điều kiện như vậy có thể xảy ra một cách tự nhiên.