Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

LLM - Autoencodeurs linéaires améliorés pour les recommandations

Created by
  • Haebom

Auteur

Jaewan Moon, parc Seongmin, Jongwuk Lee

Contour

Cet article présente L3AE, une méthode proposée pour surmonter les limites des autoencodeurs linéaires conventionnels (LAE) qui utilisent des modèles de langage à grande échelle (LLM) pour enrichir la représentation sémantique des informations textuelles dans les systèmes de recommandation. Les LAE conventionnels reposent sur des schémas de cooccurrence de mots épars, ce qui limite leur capacité à capturer un sens textuel riche. L3AE intègre les LLM au cadre LAE afin d'intégrer efficacement le sens textuel et les informations hétérogènes issues des interactions utilisateur-élément. Pour y parvenir, nous utilisons une stratégie d'optimisation en deux étapes : construction d'une matrice de corrélation sémantique élément-élément à partir des représentations d'éléments dérivées du LLM, apprentissage d'une matrice de pondération élément-élément à partir des signaux de collaboration, et utilisation des corrélations sémantiques d'éléments comme régularisation. Chaque étape est optimisée grâce à une solution fermée, garantissant optimalité globale et efficacité de calcul. Les résultats expérimentaux obtenus sur trois jeux de données de référence démontrent que L3AE surpasse systématiquement les modèles LLM de pointe, avec des gains de performance de 27,6 % sur Recall@20 et de 39,3 % sur NDCG@20. Le code source est disponible à l' adresse https://github.com/jaewan7599/L3AE_CIKM2025 .

Takeaways, Limitations

Takeaways:
Nous présentons une nouvelle méthode pour intégrer efficacement LLM dans le cadre LAE afin d'améliorer les performances des systèmes de recommandation basés sur du texte.
Atteindre simultanément l'optimalité globale et l'efficacité informatique grâce à une stratégie d'optimisation en deux étapes.
Améliorations significatives des performances vérifiées expérimentalement par rapport aux modèles de pointe existants.
Assurer la reproductibilité et l'extensibilité grâce au code open source.
Limitations:
Il est possible que l’amélioration des performances du modèle proposé soit limitée à un ensemble de données spécifique.
Il faut tenir compte du coût de calcul et du temps d’inférence du LLM.
La vérification des performances de généralisation est nécessaire pour différents types de données textuelles et de systèmes de recommandation.
👍