[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

LumiCRS: Aprendizaje asimétrico contrastivo de prototipos para sistemas de recomendación conversacional de cola larga

Created by
  • Haebom

Autor

Jinzhi Wang, Bin Li, Qingke Peng, Haozhou Li, Zeyuan Zeng, Ruimeng Li, Kaixuan Yang, Jiangbo Zhang, Biyi Zhou, Yaoying Wang

Describir

En este artículo, proponemos un novedoso marco integral, LumiCRS, para abordar el problema de la distribución de cola larga en los sistemas de recomendación conversacional (CRS). Esta distribución genera un sesgo hacia los elementos populares (cabeza), lo que dificulta la diversidad y la recomendación de nuevos elementos (cola). LumiCRS aborda este problema mediante tres estrategias principales: (i) Pérdida Focal Adaptativa y Comprensiva (ACFL) para prevenir el sobreajuste de la cabeza y reducir el sesgo de popularidad; (ii) Aprendizaje de Prototipos para seleccionar prototipos semánticos, afectivos y contextuales que estabilizan las representaciones de cuerpo y cola; y (iii) un módulo de aumento de conversaciones guiado por prototipos basado en GPT-4o para generar fragmentos de conversación de cola larga diversos para mitigar la escasez de cola y el cambio de distribución. En los puntos de referencia REDIAL e INSPIRED, LumiCRS mejora Recall@10 y Tail-Recall@10 entre un 7 y un 15 % con respecto a 15 modelos de referencia existentes y también supera a los modelos revisados por humanos en términos de fluidez, informatividad y relevancia de cola larga.

Takeaways, Limitations

Takeaways:
Presentamos un marco eficaz de extremo a extremo que mejora significativamente el rendimiento de los sistemas de recomendación conversacionales con problemas de distribución de cola larga.
Presentamos un método para mejorar la precisión, la diversidad y la equidad de las recomendaciones a través de la colaboración de múltiples capas de ACFL, Prototype Learning y módulos de aumento de conversación basados en GPT-4o.
La superioridad del método propuesto se demuestra objetivamente a través de resultados experimentales.
Limitations:
El costo computacional del módulo de aumento de conversación usando GPT-4o puede ser alto.
Puede haber sesgo hacia ciertos idiomas o dominios.
Se necesita una evaluación adicional del rendimiento de generalización en varios conjuntos de datos de cola larga.
Es posible que se necesiten investigaciones adicionales sobre los criterios de selección y optimización de los prototipos utilizados en el aprendizaje de prototipos.
👍