Sign In

GaVaMoE: Gaussian-Variational Gated Mixture of Experts for Explainable Recommendation

Created by
  • Haebom
Category
Empty

저자

Fei Tang, Yongliang Shen, Hang Zhang, Zeqi Tan, Wenqi Zhang, Zhibiao Huang, Kaitao Song, Weiming Lu, Yueting Zhuang

개요

본 논문은 대규모 언어 모델 기반 설명 가능한 추천 시스템(LLM-based ER)의 한계점인 사용자-아이템 협업 선호도 모델링, 개인화된 설명 생성, 그리고 희소한 사용자-아이템 상호작용 처리 문제를 해결하기 위해 새로운 Gaussian-Variational Gated Mixture of Experts (GaVaMoE) 프레임워크를 제안합니다. GaVaMoE는 Gaussian Mixture Model (GMM)을 사용하는 Variational Autoencoder (VAE) 기반의 평점 재구성 모듈과 다수의 전문가 모델을 포함하는데, VAE는 사용자-아이템 상호작용의 잠재 요소를 모델링하고 GMM은 유사한 행동을 가진 사용자들을 클러스터링하여 다중 게이팅 메커니즘을 구성합니다. 각 클러스터는 게이트에 해당하며, 사용자-아이템 쌍을 적절한 전문가 모델로 라우팅하여 특정 사용자 유형 및 선호도에 맞춘 설명을 생성합니다. 실제 데이터셋 세 개에 대한 실험 결과, GaVaMoE는 설명 품질, 개인화, 일관성 측면에서 기존 방법들을 상당히 능가하며, 특히 희소한 사용자-아이템 상호작용 시나리오에서도 강력한 성능을 보여줍니다.

시사점, 한계점

시사점:
희소한 데이터 환경에서도 높은 품질의 개인화된 추천 설명 생성이 가능함을 보여줌.
사용자-아이템 협업 선호도를 효과적으로 모델링하는 새로운 프레임워크 제시.
기존 LLM-based ER 시스템의 한계점을 극복하고 성능 향상을 달성.
VAE와 GMM을 결합하여 사용자 유형에 따른 맞춤형 설명 생성 가능.
한계점:
제안된 모델의 복잡성으로 인한 계산 비용 증가 가능성.
사용된 데이터셋의 특성에 따른 일반화 성능 저하 가능성.
GMM 클러스터링의 성능에 따라 전체 시스템 성능이 영향받을 수 있음.
설명의 해석 가능성 및 신뢰성에 대한 추가적인 연구 필요.
👍