Arxiv hàng ngày

Đây là trang tổng hợp các bài báo về trí tuệ nhân tạo được xuất bản trên toàn thế giới.
Trang này sử dụng Google Gemini để tóm tắt nội dung và hoạt động phi lợi nhuận.
Bản quyền của các bài báo thuộc về tác giả và tổ chức liên quan; khi chia sẻ, chỉ cần ghi rõ nguồn.

LLMDistill4Ads: Sử dụng Cross-Encoders để chắt lọc từ các tín hiệu LLM cho các đề xuất cụm từ khóa của nhà quảng cáo trên eBay

Created by
  • Haebom

Tác giả

Soumik Dey, Benjamin Braun, Naveen Ravipati, Hansi Wu, Binbin Li

Phác thảo

Bài báo này nghiên cứu việc cải tiến hệ thống đề xuất từ khóa nhằm nâng cao hiệu suất các chiến dịch quảng cáo của người bán trên eBay. Do mô hình truy xuất dựa trên nhúng (EBR) hiện tại gặp phải sai lệch dữ liệu nhấp chuột, chúng tôi đề xuất một quy trình chưng cất LLM hai bước, sử dụng mô hình ngôn ngữ quy mô lớn (LLM) làm công cụ đánh giá để loại bỏ sai lệch này. Đầu tiên, chúng tôi trích xuất kiến thức từ bộ đánh giá LLM bằng cách sử dụng bộ mã hóa chéo làm bước trung gian, sau đó chưng cất kiến thức này thành mô hình bộ mã hóa kép thông qua học đa tác vụ. Cuối cùng, chúng tôi sử dụng mô hình bộ mã hóa kép đã được chưng cất để đề xuất các từ khóa liên quan cho người bán. Kết quả thử nghiệm chứng minh rằng phương pháp được đề xuất cải thiện hiệu suất của bộ mã hóa kép, vốn tìm kiếm các từ khóa liên quan cho người bán trên eBay.

Takeaways, Limitations

Takeaways:
Chúng tôi chứng minh rằng sai lệch của mô hình EBR có thể được loại bỏ hiệu quả thông qua kỹ thuật chưng cất kiến thức sử dụng LLM.
Chúng tôi trình bày một phương pháp hiệu quả để cải thiện hiệu suất của các mô hình bi-encoder thông qua học tập đa nhiệm vụ.
Nó có thể giúp cải thiện hiệu suất chiến dịch quảng cáo của người bán trên các nền tảng thương mại điện tử lớn như eBay.
Limitations:
Do phụ thuộc nhiều vào giám khảo LLM nên kết quả có thể bị ảnh hưởng bởi hiệu suất của LLM.
Có thể cần đến các tập dữ liệu lớn và tài nguyên tính toán.
Thí nghiệm này chỉ áp dụng riêng cho môi trường eBay và cần phải xem xét khả năng áp dụng rộng rãi cho các nền tảng khác.
Có thể chưa có cuộc thảo luận nào về sự thiên vị của chính các thẩm phán LLM.
👍