Arxiv hàng ngày

Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới.
Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận.
Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.

Khám phá sự không chắc chắn trong phản ứng của MLLM: Đánh giá thực nghiệm trong các tình huống gây hiểu lầm

Created by
  • Haebom

Tác giả

Yunkai Đặng, Mengxi Gao, Yibo Yan, Xin Zou, Yanggan Gu, Jungang Li, Jingyu Wang, Peijie Jiang, Aiwei Liu, Jia Liu, Xuming Hu

Phác thảo

Bài báo này khám phá lỗ hổng lỗi của các mô hình ngôn ngữ quy mô lớn đa phương thức (MLLM), đặc biệt là hiện tượng không chắc chắn về phản hồi đối với thông tin sai lệch. Sử dụng chín tập dữ liệu chuẩn và mười hai MLLM nguồn mở tiên tiến, các nhà nghiên cứu phát hiện ra rằng một tín hiệu gây hiểu lầm duy nhất dẫn đến tỷ lệ đảo ngược 65% các câu trả lời đúng trước đó. Để phân tích định lượng điều này, chúng tôi đã đề xuất một quy trình đánh giá hai giai đoạn (xác thực phản hồi ban đầu và đo tỷ lệ lỗi sau khi đưa chỉ thị gây hiểu lầm) và tạo ra một Điểm chuẩn Không chắc chắn Đa phương thức (MUB) bằng cách thu thập các ví dụ có tỷ lệ lỗi cao. Các đánh giá mở rộng trên mười hai mô hình nguồn mở và năm mô hình nguồn đóng cho thấy tỷ lệ lỗi trung bình vượt quá 86%, với 67,19% đối với tín hiệu rõ ràng và 80,67% đối với tín hiệu ngầm. Cuối cùng, chúng tôi đã tinh chỉnh các MLLM nguồn mở trên một tập dữ liệu hướng hỗn hợp gồm 2000 mẫu, giúp giảm đáng kể tỷ lệ lỗi (6,97% đối với tín hiệu rõ ràng và 32,77% đối với tín hiệu ngầm).

Takeaways, Limitations

_____T120487____-:
Chúng tôi đã nghiên cứu một cách có hệ thống về lỗ hổng lỗi của MLLM và sự không chắc chắn của nó khi ứng phó với thông tin sai lệch.
Một chuẩn mực mới (MUB) đã được đề xuất để cải thiện độ tin cậy của MLLM.
Chúng tôi chứng minh rằng tỷ lệ lỗi của MLLM có thể được giảm đáng kể thông qua việc tinh chỉnh.
Bằng cách phân tích lỗ hổng của MLLM đối với nhiều loại thông tin sai lệch và đề xuất các cách giảm thiểu, chúng ta có thể góp phần cải thiện tính an toàn và độ tin cậy của MLLM trong các ứng dụng thực tế.
Limitations:
Các tập dữ liệu chuẩn và tinh chỉnh hiện tại tập trung vào các loại lỗi cụ thể, điều này có thể hạn chế khả năng khái quát hóa của chúng đối với các loại lỗi khác.
Ngay cả sau khi tinh chỉnh, tỷ lệ lỗi đối với tín hiệu ngầm vẫn còn khá cao.
Vì các mô hình được sử dụng chỉ giới hạn ở mã nguồn mở nên cần nghiên cứu thêm để xác định khả năng tổng quát hóa của kết quả cho các mô hình thương mại.
Kích thước tương đối nhỏ của tập dữ liệu được sử dụng trong quá trình tinh chỉnh để giảm tỷ lệ lỗi có thể được chỉ ra là một hạn chế.
👍