Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Mejora del recomendador secuencial con modelos de lenguaje amplios para la recomendación conjunta de vídeos y comentarios

Created by
  • Haebom

Autor

Bowen Zheng, Zihan Lin, Enze Liu, Chen Yang, Enyang Bai, Cheng Ling, Wayne Xin Zhao, Ji-Rong Wen

Describir

En este artículo, proponemos un novedoso sistema de recomendación, LSVCR, que considera las interacciones de video y comentarios en plataformas de video en línea. LSVCR utiliza el modelo de recomendación secuencial (SR) como principal componente de recomendación y un modelo de lenguaje a gran escala (LLM) como recomendador secundario. Para integrar las ventajas de ambos modelos, proponemos un proceso de entrenamiento en dos pasos: ordenación personalizada de preferencias y ajuste preciso basado en recomendaciones. Los resultados experimentales demuestran la eficacia de LSVCR tanto en tareas de recomendación de video como de comentarios, y las pruebas A/B en la plataforma KuaiShou muestran que mejora el tiempo de visualización de los comentarios en un 4,13 %. El LLM se excluye en la fase de implementación.

Takeaways, Limitations

Takeaways:
Demostramos que la incorporación de interacciones de vídeo y comentarios puede ayudarnos a modelar las preferencias de los usuarios con mayor precisión.
Presentamos un método eficaz para mejorar el rendimiento de las recomendaciones combinando modelos de recomendación secuencial y LLM.
Verificación de la eficacia práctica mediante pruebas A/B en una plataforma real (KuaiShou).
Se obtuvieron resultados claros en forma de un mayor tiempo de visualización de los comentarios.
Limitations:
Si utiliza el LLM como complemento y lo excluye de la fase de distribución, es posible que no pueda aprovechar plenamente su potencial.
Dado que fue desarrollado para adaptarse a las características de la plataforma KuaiShou, se necesita más investigación sobre su generalización a otras plataformas.
Posible aumento de los costos computacionales y disminución de la eficiencia debido al uso de LLM.
👍