Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

LLMDistill4Ads: Using Cross-Encoders to Distill from LLM Signals for Advertiser Keyphrase Recommendations at eBay

Created by
  • Haebom

저자

Soumik Dey, Benjamin Braun, Naveen Ravipati, Hansi Wu, Binbin Li

개요

이 논문은 eBay 판매자의 광고 캠페인 성과 향상을 위해 키워드를 추천하는 시스템을 개선하는 연구입니다. 기존의 임베딩 기반 검색(EBR) 모델은 클릭 데이터의 편향성을 가지고 있기 때문에, 대규모 언어 모델(LLM)을 판단자로 활용하여 이러한 편향을 제거하는 두 단계 LLM 증류 과정을 제안합니다. 먼저 크로스 인코더를 중간 단계로 활용하여 LLM 판단자로부터 지식을 추출하고, 이를 다중 작업 학습을 통해 바이 인코더 모델에 증류합니다. 최종적으로, 증류된 바이 인코더 모델을 사용하여 판매자에게 관련성 높은 키워드를 추천합니다. 실험 결과, 제안된 방법이 eBay에서 판매자에게 적절한 키워드를 검색하는 바이 인코더의 성능을 향상시키는 것을 보여줍니다.

시사점, 한계점

시사점:
LLM을 활용한 지식 증류 기법을 통해 EBR 모델의 편향성을 효과적으로 제거할 수 있음을 보여줍니다.
다중 작업 학습을 통해 바이 인코더 모델의 성능을 향상시키는 효과적인 방법을 제시합니다.
eBay와 같은 대규모 e-commerce 플랫폼에서 판매자의 광고 캠페인 성과를 향상시키는 데 기여할 수 있습니다.
한계점:
LLM 판단자에 대한 의존도가 높아, LLM의 성능에 따라 결과가 영향을 받을 수 있습니다.
대규모 데이터셋과 컴퓨팅 자원이 필요할 수 있습니다.
실험은 eBay 환경에 특화되어 있어 다른 플랫폼으로의 일반화 가능성에 대한 검토가 필요합니다.
LLM 판단자의 편향성 자체에 대한 논의가 부족할 수 있습니다.
👍