Arxiv hàng ngày

Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới.
Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận.
Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.

Các mô hình ngôn ngữ lớn không mô phỏng được tâm lý con người

Created by
  • Haebom

Tác giả

Sarah Schr oder, Thekla Morgenroth, Ulrike Kuhl, Valerie Vaquet, Benjamin Paa{\ss}vi

Phác thảo

Bài báo này xem xét một cách phê phán tuyên bố rằng các mô hình ngôn ngữ quy mô lớn (LLM), chẳng hạn như ChatGPT, có thể thay thế con người trong nghiên cứu tâm lý. Chúng tôi trình bày một lập luận khái niệm cho giả thuyết rằng LLM mô phỏng tâm lý con người và ủng hộ giả thuyết này bằng thực nghiệm bằng cách chứng minh sự khác biệt giữa LLM và phản ứng của con người dựa trên những thay đổi về mặt ngữ nghĩa. Cụ thể, chúng tôi chứng minh rằng một số LLM, bao gồm cả mô hình CENTAUR được tinh chỉnh cho các phản ứng tâm lý, phản ứng khác nhau với các mục mới, làm nổi bật tính không đáng tin cậy của LLM. Do đó, chúng tôi kết luận rằng mặc dù LLM là những công cụ hữu ích, nhưng chúng nên được coi là những công cụ về cơ bản không đáng tin cậy và cần được kiểm chứng với phản ứng của con người trong bất kỳ ứng dụng mới nào.

Takeaways, Limitations

Takeaways: Bằng cách chứng minh bằng thực nghiệm rằng LLM không mô phỏng chính xác tâm lý con người, chúng tôi khuyến nghị nên thận trọng khi sử dụng LLM trong nghiên cứu tâm lý. Chúng tôi nhấn mạnh tầm quan trọng của việc xác thực LLM với phản ứng của con người khi áp dụng chúng vào nghiên cứu tâm lý.
Limitations: Nghiên cứu này trình bày kết quả dựa trên một LLM cụ thể và một tập dữ liệu hạn chế. Do đó, cần thận trọng khi khái quát hóa sang các LLM khác hoặc các tập dữ liệu rộng hơn. Do tốc độ phát triển nhanh chóng của LLM, cần có thêm nghiên cứu để xác định tính hợp lệ lâu dài của các kết luận từ nghiên cứu này.
👍