Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

LLMDistill4Ads: Using Cross-Encoders to Distill from LLM Signals for Advertiser Keyphrase Recommendations at eBay

Created by
  • Haebom

저자

Soumik Dey, Benjamin Braun, Naveen Ravipati, Hansi Wu, Binbin Li

개요

본 논문은 eBay 판매자의 광고 캠페인 성능 향상을 위해 키워드를 추천하는 시스템을 개선하는 연구입니다. 기존의 키워드 추천 시스템은 클릭 데이터의 편향성으로 인해 부정확한 결과를 초래할 수 있으므로, 이를 해결하기 위해 대규모 언어 모델(LLM)을 활용한 두 단계의 지식 증류(distillation) 과정을 제안합니다. 먼저, 크로스 인코더 기반의 LLM을 통해 판매자의 판단을 모방하고, 이를 바탕으로 바이 인코더 모델을 다중 작업 학습을 통해 학습시켜 키워드를 추천합니다. 이를 통해 eBay에서 관련성 높은 광고주 키워드를 검색하는 바이 인코더 성능을 향상시킬 수 있음을 보여줍니다.

시사점, 한계점

시사점:
LLM을 활용한 지식 증류 기법을 통해 클릭 데이터의 편향성을 효과적으로 해결할 수 있음을 보여줌.
다중 작업 학습을 통해 바이 인코더 모델의 성능을 향상시킬 수 있는 방법을 제시함.
eBay와 같은 대규모 전자상거래 플랫폼에서 더욱 효율적이고 정확한 키워드 추천 시스템 구축 가능성 제시.
한계점:
LLM의 판단을 완벽하게 모방하는 것은 어려우며, 여전히 잔류 편향이 존재할 가능성 있음.
본 연구에서 사용된 LLM 및 데이터셋의 특성에 따라 일반화 성능이 달라질 수 있음.
대규모 LLM 사용으로 인한 높은 계산 비용 및 환경적 영향 고려 필요.
👍