Arxiv hàng ngày

Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới.
Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận.
Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.

ACING: Diễn viên-Nhà phê bình cho việc học hướng dẫn trong LLM hộp đen

Created by
  • Haebom

Tác giả

Salma Kharrat, Fares Fourati, Marco Canini

Phác thảo

Bài báo này trình bày ACING, một kỹ thuật tối ưu hóa lời nhắc tự động nhằm cải thiện hiệu suất của các mô hình ngôn ngữ quy mô lớn (LLM). ACING, một khuôn khổ dựa trên học tăng cường hoạt động ngay cả trong môi trường hộp đen, nơi các tham số và gradient của LLM không thể truy cập được, xây dựng tối ưu hóa lời nhắc như một bài toán hành động liên tục không trạng thái, khám phá một không gian lời nhắc vô hạn. Kết quả thử nghiệm cho thấy ACING tạo ra các lời nhắc vượt trội hơn lời nhắc do con người tạo ra 76% thời gian trên nhiều tác vụ khác nhau (gợi ý lệnh, tóm tắt và suy luận chuỗi suy nghĩ), đạt tới 33 điểm và cải thiện hiệu suất trung bình 10 điểm so với mô hình cơ sở tự động tốt nhất. Các thử nghiệm bổ sung mở rộng đã xác nhận tính mạnh mẽ và hiệu quả của ACING. Mã nguồn có sẵn trên GitHub.

Takeaways, Limitations

Takeaways:
Một kỹ thuật tối ưu hóa nhanh chóng hiệu quả cho LLM hộp đen được trình bày.
Chứng minh tính khả thi của việc tự động tạo ra lời nhắc vượt trội hơn lời nhắc do con người tạo ra.
Trình bày khuôn khổ chung áp dụng cho nhiều nhiệm vụ LLM khác nhau.
Tăng khả năng tái tạo và khả năng sử dụng thông qua việc công bố mã nguồn của ACING.
Limitations:
Cần xác minh hiệu suất tổng quát cho các LLM và nhiệm vụ cụ thể.
Cần phân tích thêm về chi phí tính toán và thời gian đào tạo của ACING.
Cần có thêm nghiên cứu về khả năng ứng dụng và sự khác biệt về hiệu suất của các loại LLM hộp đen khác nhau.
👍