Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Bidirectional Knowledge Distillation for Enhancing Sequential Recommendation with Large Language Models

Created by
  • Haebom

저자

Jiongran Wu, Jiahao Liu, Dongsheng Li, Guangping Zhang, Mingzhe Han, Hansu Gu, Peng Zhang, Li Shang, Tun Lu, Ning Gu

개요

본 논문은 대규모 언어 모델(LLM)과 기존 추천 모델(CRM)을 결합하여 순차적 추천 시스템의 성능을 향상시키는 새로운 상호 증류 프레임워크인 LLMD4Rec를 제안한다. LLMD4Rec은 기존의 단방향 증류 방식과 달리, LLM 중심 시스템과 CRM 기반 시스템 간의 동적인 양방향 지식 교환을 통해 각 모델을 반복적으로 개선한다. 샘플별 적응적 가중치 부여와 출력 분포 정렬을 통해 추가적인 매개변수 없이 효과적인 지식 전달을 실현하며, 실제 데이터셋을 이용한 실험 결과, 추론 비용 증가 없이 여러 벤치마크에서 추천 정확도를 크게 향상시킨다는 것을 보여준다.

시사점, 한계점

시사점:
LLM과 CRM의 장점을 결합하여 순차적 추천 시스템의 성능을 효과적으로 향상시키는 새로운 방법 제시.
추론 비용 증가 없이 정확도 향상을 달성.
양방향 지식 교환을 통한 동적이고 효율적인 지식 전달 방식 제시.
추가적인 매개변수 없이 효과적인 지식 전달 가능.
한계점:
제안된 모델의 일반화 성능에 대한 추가적인 연구 필요.
다양한 종류의 CRM 및 LLM에 대한 적용성 평가 필요.
실제 서비스 환경에서의 확장성 및 안정성에 대한 추가적인 검증 필요.
👍