Lost in Sequence: Do Large Language Models Understand Sequential Recommendation?
Created by
Haebom
저자
Sein Kim, Hongseok Kang, Kibum Kim, Jiwan Kim, Donghyun Kim, Minchul Yang, Kwangjin Oh, Julian McAuley, Chanyoung Park
개요
본 논문은 대규모 언어 모델(LLM) 기반 추천 시스템(LLM4Rec)이 사용자의 아이템 상호작용 순서 정보를 충분히 활용하지 못한다는 점을 지적합니다. 기존 LLM4Rec 모델들의 순차 정보 활용 능력 부족을 실험적으로 증명하고, 이를 개선하기 위해 사전 훈련된 순차 추천 모델(CF-SRec)의 사용자 표현을 LLM에 주입하는 간단하면서도 효과적인 순차 추천 모델 LLM-SRec을 제안합니다. LLM-SRec은 경량 MLP만 학습시켜 최첨단 성능을 달성하며, 기존 LLM 미세 조정 기반 모델들보다 실용적입니다.
시사점, 한계점
•
시사점:
◦
LLM 기반 추천 시스템에서 순차 정보 활용의 중요성을 강조하고, 기존 모델의 한계를 밝힘.
◦
LLM의 순차 정보 이해 능력 향상을 위한 효과적인 방법인 LLM-SRec 제안.
◦
LLM 미세 조정 없이 경량 MLP 학습만으로 최첨단 성능 달성, 실용성 증명.
◦
GitHub에 코드 공개를 통한 재현성 및 활용성 제고.
•
한계점:
◦
제안된 LLM-SRec의 성능 향상이 특정 데이터셋이나 특정 유형의 LLM에 국한될 가능성 존재.
◦
CF-SRec 모델에 의존하는 구조적 한계로 인해 CF-SRec 모델의 성능에 따라 LLM-SRec의 성능이 영향받을 수 있음.
◦
다양한 유형의 순차 정보(예: 시간 간격, 아이템 특징 등)를 고려하지 않은 단순한 순차 정보 통합 방식.