Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

LLM - Autocodificadores lineales mejorados para recomendaciones

Created by
  • Haebom

Autor

Jaewan Moon, Seongmin Park, Jongwuk Lee

Describir

Este artículo presenta L3AE, un método propuesto para superar las limitaciones de los autocodificadores lineales (LAE) convencionales que aprovechan los modelos de lenguaje a gran escala (LLM) para enriquecer la representación semántica de la información textual en sistemas de recomendación. Los LAE convencionales se basan en patrones de coocurrencia de palabras dispersas, lo que limita su capacidad para capturar significado textual rico. L3AE integra los LLM en el marco LAE para integrar eficazmente el significado textual y la información heterogénea de las interacciones usuario-ítem. Para lograrlo, empleamos una estrategia de optimización en dos pasos: construir una matriz de correlación semántica ítem-ítem utilizando representaciones de ítems derivadas del LLM y aprender una matriz de ponderación ítem-ítem a partir de señales de colaboración, utilizando correlaciones semánticas de ítems como regularización. Cada paso se optimiza mediante una solución de forma cerrada, lo que garantiza la optimalidad global y la eficiencia computacional. Los resultados experimentales en tres conjuntos de datos de referencia demuestran que L3AE supera consistentemente a los modelos LLM de vanguardia, logrando mejoras de rendimiento del 27,6 % en Recall@20 y del 39,3 % en NDCG@20. El código fuente se encuentra en https://github.com/jaewan7599/L3AE_CIKM2025 .

Takeaways, Limitations

Takeaways:
Presentamos un método novedoso para integrar eficazmente LLM en el marco LAE para mejorar el rendimiento de los sistemas de recomendación basados ​​en texto.
Lograr la optimalidad global y la eficiencia computacional simultáneamente a través de una estrategia de optimización de dos pasos.
Mejoras de rendimiento significativas verificadas experimentalmente en comparación con los modelos de última generación existentes.
Garantizar la reproducibilidad y extensibilidad mediante código fuente abierto.
Limitations:
Existe la posibilidad de que la mejora del rendimiento del modelo propuesto se limite a un conjunto de datos específico.
Es necesario tener en cuenta el coste computacional y el tiempo de inferencia del LLM.
Es necesaria la verificación del rendimiento de generalización para varios tipos de datos de texto y sistemas de recomendación.
👍