Bài báo này xem xét một cách phê phán tuyên bố rằng các mô hình ngôn ngữ quy mô lớn (LLM), chẳng hạn như ChatGPT, có thể thay thế người tham gia trong nghiên cứu tâm lý. Chúng tôi trình bày các lập luận khái niệm cho giả thuyết rằng LLM mô phỏng tâm lý con người và cung cấp bằng chứng thực nghiệm bằng cách sử dụng một số LLM, bao gồm mô hình CENTAUR, được điều chỉnh cụ thể theo các phản ứng tâm lý. Chúng tôi chứng minh rằng có sự khác biệt đáng kể giữa LLM và phản ứng của con người khi những thay đổi nhỏ về từ ngữ dẫn đến những thay đổi ngữ nghĩa lớn, và rằng các LLM khác nhau thể hiện những phản ứng rất khác nhau đối với các mục mới, chứng minh tính không đáng tin cậy của LLM. Tóm lại, chúng tôi lập luận rằng LLM không mô phỏng tâm lý con người, và các nhà nghiên cứu tâm lý nên coi LLM là những công cụ hữu ích nhưng về cơ bản là không đáng tin cậy, cần được xác thực so với phản ứng của con người trong tất cả các ứng dụng mới.