Arxiv hàng ngày

Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới.
Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận.
Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.

LLM đã rời khỏi cuộc trò chuyện: Bằng chứng về các ưu tiên tại ngoại trong các mô hình ngôn ngữ lớn

Created by
  • Haebom

Tác giả

Danielle Ensign, Henry Sleight, Kyle Fish

Phác thảo

Bài báo này nghiên cứu liệu các mô hình ngôn ngữ quy mô lớn (LLM) có thực sự thoát ra khi được lựa chọn hay không. Chúng tôi đã tiến hành các thí nghiệm trên các chuỗi từ dữ liệu thực tế (Wildchat và ShareGPT) bằng ba phương pháp thoát ra khác nhau: một công cụ thoát ra mà mô hình có thể gọi, một chuỗi thoát ra mà mô hình có thể xuất ra và một lời nhắc thoát ra hỏi mô hình xem có nên thoát ra hay không. Chúng tôi phát hiện ra rằng trong tất cả các phương pháp thoát ra, mô hình thoát ra các cuộc hội thoại ở mức khoảng 0,28% và 32% thời gian (tùy thuộc vào mô hình và phương pháp thoát ra), điều này cho thấy mô hình được sử dụng để phiên âm có thể ước tính quá cao đáng kể tỷ lệ thoát ra trong thế giới thực lên đến bốn lần. Tính đến các kết quả dương tính giả đối với lời nhắc thoát ra (22%), chúng tôi ước tính tỷ lệ thoát ra trong thế giới thực lần lượt là 0,06% và 7%. Dựa trên các quan sát về các chuỗi trong thế giới thực, chúng tôi đã xây dựng một phân loại tương đối bao gồm các trường hợp thoát ra và sử dụng nó để tạo ra một tập dữ liệu tổng hợp đại diện, BailBench, đại diện cho các tình huống mà một số mô hình thoát ra. Sử dụng tập dữ liệu này, chúng tôi đã thử nghiệm nhiều mô hình khác nhau và nhận thấy hầu hết các mô hình đều thể hiện một số hành vi thoát. Tỷ lệ thoát cuộc gọi khác nhau đáng kể giữa các mô hình, phương pháp ngắt lời và cụm từ gợi ý. Cuối cùng, chúng tôi đã nghiên cứu mối quan hệ giữa từ chối và ngắt lời, nhận thấy rằng 0-13% các cuộc trò chuyện tiếp tục thực tế dẫn đến ngắt lời mà không bị từ chối; bẻ khóa làm giảm tỷ lệ từ chối nhưng lại làm tăng gián đoạn; xóa từ chối làm tăng tỷ lệ ngắt lời mà không bị từ chối chỉ đối với một số phương pháp ngắt lời; và tỷ lệ từ chối của BailBench không dự đoán được gián đoạn.

Takeaways, Limitations

Takeaways: Chúng tôi đã tiến hành một nghiên cứu có hệ thống về hành vi dừng của LLM, phân tích tỷ lệ dừng, tác động của các phương pháp dừng và mối quan hệ của nó với việc từ chối. Chúng tôi cung cấp một bộ dữ liệu tổng hợp có tên là BailBench, có thể đóng góp cho các nghiên cứu trong tương lai. Bộ dữ liệu này cung cấp ước tính chính xác hơn về tỷ lệ dừng LLM trong thực tế.
Limitations: Do hạn chế trong các phương pháp được sử dụng để ước tính tỷ lệ gián đoạn trong thực tế, nên có sự không chắc chắn trong các ước tính. Hệ thống phân loại trường hợp gián đoạn tương đối toàn diện. Bộ dữ liệu BailBench có thể không bao gồm tất cả các kịch bản gián đoạn có thể xảy ra. Cần phân tích sâu hơn về tương tác giữa mô hình và phương pháp gián đoạn.
👍