Arxiv hàng ngày

Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới.
Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận.
Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.

Thoát khỏi tình trạng bế tắc: Tăng cường cam kết trong chương trình Thạc sĩ Luật (LLM)

Created by
  • Haebom

Tác giả

Diễn viên Emilio BarkettOlivia LongPaul Kroger

Phác thảo

Do các mô hình ngôn ngữ quy mô lớn (LLM) ngày càng được triển khai trong các vai trò ra quyết định tự động trong các lĩnh vực có rủi ro cao, bài báo này nghiên cứu liệu các mô hình được đào tạo trên dữ liệu do con người tạo ra có thể kế thừa các sai lệch nhận thức (ví dụ: đầu tư quá mức) làm sai lệch một cách có hệ thống phán đoán của con người hay không. Nghiên cứu này đã xem xét biểu hiện của các sai lệch LLM trong bốn điều kiện thử nghiệm: mô hình với tư cách là nhà đầu tư, mô hình với tư cách là cố vấn, tham vấn nhiều tác nhân và các kịch bản áp lực hỗn hợp sử dụng một nhiệm vụ đầu tư. Kết quả từ 6.500 thử nghiệm cho thấy các sai lệch LLM phụ thuộc rất nhiều vào bối cảnh. Trong khi bối cảnh quyết định cá nhân thể hiện logic chi phí-lợi ích hợp lý, thì tham vấn nhiều tác nhân lại thể hiện các hiệu ứng phân cấp rõ rệt. Cụ thể, việc ra quyết định dựa trên ngang hàng đối xứng dẫn đến đầu tư quá mức trong hầu hết các trường hợp. Tương tự, tỷ lệ đầu tư quá mức cũng cao dưới áp lực của tổ chức và cá nhân. Những kết quả này chứng minh rằng các sai lệch LLM không phải là cố hữu mà phụ thuộc rất nhiều vào bối cảnh xã hội và tổ chức, cung cấp những hiểu biết quan trọng cho việc triển khai các hệ thống đa tác nhân và các hoạt động không giám sát khi các điều kiện như vậy có thể xảy ra một cách tự nhiên.

Takeaways, Limitations

Takeaways:
Biểu hiện của thiên kiến nhận thức (đầu tư quá mức) trong LLM phụ thuộc phần lớn vào bối cảnh xã hội và tổ chức hơn là các đặc tính của chính mô hình.
Cần phải xem xét khả năng xuất hiện sai lệch trong LLM trong các hệ thống đa tác nhân và môi trường hoạt động không giám sát.
Khi áp dụng LLM vào việc ra quyết định có rủi ro cao, thiết kế và quản lý cần xem xét đến các yếu tố theo ngữ cảnh là điều cần thiết.
Cần phải hiểu sâu hơn về cách các yếu tố xã hội như hệ thống phân cấp và áp lực ảnh hưởng đến quá trình ra quyết định của LLM.
Limitations:
Môi trường thử nghiệm có thể không phản ánh đầy đủ sự phức tạp của thế giới thực.
ĐIều này có thể giới hạn ở một số loại LLM và một số loại bài tập nhất định.
Cần có thêm nghiên cứu trong bối cảnh xã hội và tổ chức đa dạng hơn.
Thiếu các phương pháp cụ thể để giảm thiểu sự thiên vị trong LLM.
👍