Tuning-Free LLM Can Build A Strong Recommender Under Sparse Connectivity And Knowledge Gap Via Extracting Intent
Created by
Haebom
저자
Wenqing Zheng, Noah Fatsi, Daniel Barcklow, Dmitri Kalaev, Steven Yao, Owen Reinert, C. Bayan Bruss, Daniele Rosa
개요
본 논문에서는 대규모 언어 모델(LLM)을 이용한 추천 시스템에서의 한계점인 일반 상식 기반의 항목-범주 수준 증강이나 기존 지식 그래프에 대한 암시적 의도 모델링의 부족을 해결하기 위해, 의도 중심 지식 그래프를 구축하는 새로운 프레임워크인 LLM-based Intent Knowledge Graph Recommender (IKGR)를 제시합니다. IKGR은 조정이 필요 없는 RAG(Retrieval-Augmented Generation) 기반 LLM 파이프라인을 통해 추출된 의도 노드에 사용자와 항목을 명시적으로 연결하여 사용자의 의도와 항목이 충족하는 내용을 1차 엔티티로 표현합니다. 희소성 문제 해결을 위해 상호 의도 연결 밀집 전략을 도입하여 그래프 간 융합 없이 사용자와 롱테일 항목 간의 의미 경로를 단축시키고, 경량 GNN 레이어를 통해 지연 시간이 짧은 추천 신호를 생성합니다. 공개 및 기업 데이터셋에 대한 광범위한 실험 결과, IKGR은 특히 콜드 스타트 및 롱테일 부분에서 강력한 기준 모델보다 성능이 우수하며, 완전히 오프라인으로 처리되는 LLM 파이프라인을 통해 효율성을 유지합니다.
시사점, 한계점
•
시사점:
◦
LLM을 활용하여 사용자 의도를 명확하게 모델링하고 추천 정확도를 향상시키는 새로운 프레임워크 제시.
◦
의도 중심 지식 그래프 구축을 통해 희소성 문제(특히 콜드 스타트 및 롱테일 아이템)를 효과적으로 해결.