Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Large Language Models Enhanced Hyperbolic Space Recommender Systems

Created by
  • Haebom

저자

Wentao Cheng, Zhida Qin, Zexue Wu, Pengzhan Zhou, Tianyu Huang

개요

본 논문은 대규모 언어 모델(LLM)을 추천 시스템에 적용하여 성능 향상을 이끌어내는 새로운 프레임워크인 HyperLLM을 제안한다. 기존 유클리드 공간 기반 방법의 한계를 극복하기 위해, 계층적 정보를 효과적으로 포착하는 데 유리한 쌍곡 공간을 활용한다. HyperLLM은 LLM을 이용하여 아이템에 대한 다계층 분류 태그를 생성하고, 대조 학습을 통해 태그-아이템 및 사용자-아이템 상호작용을 학습하여 계층적 구조 정보를 효과적으로 활용한다. 또한, 의미적 임베딩에서 계층적 정보를 추출하는 메타 최적화 전략을 도입하여 의미 공간과 협업 필터링 공간 간의 간극을 해소한다. 실험 결과, HyperLLM은 기존 방법들보다 40% 이상 성능 향상을 보였으며, 학습 안정성도 향상시켰다.

시사점, 한계점

시사점:
LLM과 쌍곡 공간을 결합하여 추천 시스템의 성능을 크게 향상시킬 수 있음을 보여줌.
계층적 정보를 효과적으로 활용하는 새로운 프레임워크를 제시함.
추천 시스템의 학습 안정성 향상에 기여함.
다양한 계층적 정보(구조적, 의미적)를 통합적으로 활용하는 방법 제시.
한계점:
HyperLLM의 메타 최적화 전략의 구체적인 세부 사항 및 한계에 대한 논의 부족.
다양한 종류의 LLM 및 쌍곡 공간 모델에 대한 일반화 가능성에 대한 추가적인 연구 필요.
실험 데이터셋의 다양성 확보 필요. 특정 데이터셋에 대한 과적합 가능성 존재.
계산 비용 및 모델 복잡도에 대한 분석 부족.
👍