Arxiv hàng ngày

Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới.
Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận.
Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.

Học cách suy luận thích ứng cho các mô hình ngôn ngữ lớn đa phương thức

Created by
  • Haebom

Tác giả

Zhuoyan Xu, Khôi Đức Nguyên, Preeti Mukherjee, Saurabh Bagchi, Somali Chaterji, Yingyu Liang, Yin Li

Phác thảo

Bài báo này đề xuất AdaLLaVA, một khuôn khổ suy luận thích ứng cho việc suy luận hiệu quả các mô hình ngôn ngữ quy mô lớn đa phương thức (MLLM). Các MLLM thông thường gặp khó khăn khi triển khai trong môi trường hạn chế tài nguyên do chi phí tính toán cao. AdaLLaVA giải quyết thách thức này thông qua một phương pháp tiếp cận dựa trên học máy, tự động cấu hình lại các phép tính MLLM trong quá trình suy luận, có tính đến dữ liệu đầu vào và ngân sách độ trễ. Thông qua nhiều thử nghiệm chuẩn mực, bao gồm trả lời câu hỏi, suy luận và ảo giác, chúng tôi chứng minh rằng AdaLLaVA đáp ứng hiệu quả ngân sách độ trễ đầu vào và đạt được nhiều sự đánh đổi giữa độ chính xác và độ trễ tùy thuộc vào thời gian thực thi. Hơn nữa, chúng tôi chứng minh rằng AdaLLaVA thích ứng với độ trễ và nội dung đầu vào, tích hợp với lựa chọn mã thông báo để nâng cao hiệu quả và có thể khái quát hóa cho nhiều MLLM khác nhau.

Takeaways, Limitations

_____T283358____-:
Trình bày phương pháp mới để sử dụng MLLM hiệu quả ngay cả trong môi trường hạn chế về tài nguyên.
ĐIều chỉnh hoạt động MLLM một cách linh hoạt dựa trên dữ liệu đầu vào và ngân sách độ trễ để đạt được hiệu suất tối ưu.
Việc tích hợp với lựa chọn mã thông báo mang lại tiềm năng tăng hiệu quả hơn nữa.
Một khuôn khổ chung áp dụng cho nhiều MLLM khác nhau.
Limitations:
Hiệu suất của AdaLLaVA có thể thay đổi tùy thuộc vào MLLM được sử dụng và tập dữ liệu chuẩn.
Cần phải xác nhận thêm hiệu suất tổng quát hóa trong môi trường thực tế.
Hiệu suất xử lý các câu hỏi hoặc hình ảnh rất phức tạp có thể cần phải nghiên cứu thêm.
👍