Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Reason-to-Recommend: Using Interaction-of-Thought Reasoning to Enhance LLM Recommendation

Created by
  • Haebom

저자

Keyu Zhao, Fengli Xu, Yong Li

개요

본 논문은 대규모 언어 모델(LLM)의 강력한 의미 이해 및 프롬프트 유연성을 활용하여 추천 시스템에 LLM을 통합하는 방법을 제시합니다. 기존 연구는 사용자-아이템 상호작용이나 메타데이터를 프롬프트로 인코딩하여 추천을 수행했지만, 본 논문은 사용자 피드백의 암시성과 추론 지도의 부족이라는 문제점을 해결하기 위해 R2Rec이라는 새로운 프레임워크를 제안합니다. R2Rec은 사용자-아이템 그래프에서 상호작용 체인을 샘플링하고, 점진적 마스크 프롬프팅 전략을 통해 구조화된 상호작용 사고(interaction-of-thoughts)로 변환합니다. 각 사고는 상호작용 맥락에 기반한 단계별 추론을 나타내며, LLM이 암시적 패턴에 기반한 단계별 의사결정을 시뮬레이션할 수 있도록 합니다. R2Rec은 고품질 추적 데이터를 이용한 지도 학습 미세 조정과 보상 신호를 통한 강화 학습의 두 단계 학습 파이프라인으로 구성됩니다. 세 개의 실제 데이터셋에 대한 실험 결과, R2Rec은 기존 방법 및 LLM 기반 기준 모델보다 HitRatio@1에서 평균 10.48% 향상, 원래 LLM 대비 131.81% 향상을 보였으며, 명시적인 추론 체인을 통해 의사결정 과정의 해석성을 높였습니다.

시사점, 한계점

시사점:
LLM을 추천 시스템에 효과적으로 통합하는 새로운 프레임워크 R2Rec 제시.
암시적인 사용자 피드백을 활용하여 LLM의 추론 능력을 추천에 적용.
HitRatio@1 지표에서 기존 방법 대비 상당한 성능 향상 달성.
추론 과정의 명시화를 통한 추천 결과의 해석성 향상.
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 검증 필요.
다양한 유형의 추천 시스템 및 데이터셋에 대한 적용성 연구 필요.
강화 학습 과정에서의 보상 함수 설계 및 최적화에 대한 추가 연구 필요.
실제 적용 시 계산 비용 및 효율성에 대한 고려 필요.
👍