Arxiv hàng ngày

Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới.
Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận.
Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.

ĐừNg bịa đặt: Duy trì nhận thức về sự thiếu hiểu biết trong quá trình tinh chỉnh LLM

Created by
  • Haebom

Tác giả

William F. Shen, Xinchi Qiu, Nicola Cancedda, Nicholas D. Lane

Phác thảo

Bài báo này trình bày SEAT, một phương pháp mới để giải quyết vấn đề quên nghiêm trọng phát sinh trong quá trình tinh chỉnh các mô hình ngôn ngữ quy mô lớn (LLM). Không giống như các nghiên cứu trước đây tập trung vào việc duy trì hiệu suất trên dữ liệu hiện có, bài báo này tập trung vào việc mất các khả năng thiết yếu có được trong quá trình căn chỉnh, đặc biệt là khả năng biểu diễn chính xác sự không chắc chắn của mô hình (nhận thức về sự thiếu hiểu biết). Các tác giả chính thức hóa khái niệm nhận thức về sự thiếu hiểu biết và chỉ ra rằng các phương pháp tinh chỉnh hiện có có thể làm suy yếu nhận thức về sự thiếu hiểu biết bằng cách gây ra sự trôi dạt kích hoạt, dẫn đến các hành vi không mong muốn như ảo giác. SEAT tích hợp điều chỉnh thưa thớt, giúp hạn chế sự trôi dạt kích hoạt và một phương pháp nhiễu loạn thực thể mới để giải quyết tình trạng vướng víu kiến ​​thức, thu thập hiệu quả kiến ​​thức mới đồng thời duy trì nhận thức về sự thiếu hiểu biết đã được căn chỉnh. Kết quả thực nghiệm cho thấy SEAT vượt trội hơn các phương pháp hiện có về cả khả năng duy trì nhận thức về sự thiếu hiểu biết và hiệu suất tinh chỉnh trên cả tập dữ liệu thực và tổng hợp.

Takeaways, Limitations

Takeaways:
Trong khóa học LLM Fine Tuning, tầm quan trọng của nhận thức về sự thiếu hiểu biết được nhấn mạnh và các phương pháp đo lường và cải thiện định lượng được trình bày.
Chúng tôi tiết lộ Limitations của phương pháp điều chỉnh chính xác hiện có và đề xuất một phương pháp mới, SEAT, để khắc phục nó.
SEAT chứng minh bằng thực nghiệm rằng phương pháp điều chỉnh thưa thớt và nhiễu loạn thực thể đồng thời cải thiện cả hiệu suất nhận dạng sự thiếu hiểu biết và hiệu suất điều chỉnh chính xác.
Trình bày hướng đi mới cho việc tinh chỉnh LLM an toàn và mạnh mẽ hơn.
Limitations:
Cần nghiên cứu thêm để xác định hiệu suất của SEAT có thể được khái quát hóa tốt như thế nào trên các kiến ​​trúc và tập dữ liệu LLM khác nhau.
Cần nghiên cứu thêm để xác định các thông số tối ưu của phương pháp nhiễu loạn thực thể.
Cần phải phân tích chi phí tính toán và hiệu quả khi áp dụng vào LLM quy mô lớn.
Có thể cần thảo luận thêm về định nghĩa và cách đo lường nhận thức về sự thiếu hiểu biết.
👍