Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

LLM-EDT: Large Language Model Enhanced Cross-domain Sequential Recommendation with Dual-phase Training

Created by
  • Haebom
Category
Empty

저자

Ziwei Liu, Qidong Liu, Wanyu Wang, Yejing Wang, Tong Xu, Wei Huang, Chong Chen, Peng Chuan, Xiangyu Zhao

개요

본 논문은 다양한 도메인의 정보를 통합하여 사용자-아이템 상호작용을 풍부하게 하는 교차 도메인 시퀀스 추천(CDSR)의 발전을 다룹니다. 기존 연구의 불균형 문제와 전환 문제를 해결하기 위해, 대규모 언어 모델(LLM)을 활용한 새로운 방법론, LLM-EDT를 제안합니다. LLM-EDT는 전이 가능한 아이템 증강기를 통해 불균형 문제를 완화하고, 이중 단계 훈련 전략을 통해 전환 문제를 해결하며, 도메인 인식 프로파일링 모듈을 통해 사용자 선호도를 더욱 정확하게 파악합니다. 세 개의 공개 데이터셋에 대한 실험을 통해 LLM-EDT의 효과를 검증했습니다.

시사점, 한계점

시사점:
교차 도메인 시퀀스 추천에서 LLM의 활용 가능성을 제시함.
불균형 문제, 전환 문제, 거친 프로파일링 문제 등 CDSR의 주요 난제를 해결하기 위한 구체적인 방법론을 제시함.
전이 가능한 아이템 증강기, 이중 단계 훈련 전략, 도메인 인식 프로파일링 모듈 등 혁신적인 기술을 제안함.
세 개의 공개 데이터셋에 대한 실험을 통해 방법론의 효과를 입증함.
재현성을 위해 코드 공개.
한계점:
LLM-EDT의 성능 향상에 대한 추가적인 분석이 필요함.
제안된 방법론의 일반화 가능성에 대한 추가 연구가 필요함.
LLM의 사용으로 인한 계산 비용 및 효율성 문제에 대한 고려가 필요함.
👍