Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Comportamientos y preferencias subjetivas en LLM: Lenguaje de navegación

Created by
  • Haebom

Autor

Sai Sundaresan, Harshita Chopra, Atanu R. Sinha, Koustava Goswami, Nagasai Saketh Naidu, Raghav Karan, N Anushka

Describir

Este artículo cuestiona la eficacia de los modelos de lenguaje a gran escala (LLM) para capturar los comportamientos subjetivos y heterogéneos de los usuarios en el uso de sitios web o aplicaciones. Consideramos los registros secuenciales de acceso a páginas de un usuario como su "lenguaje de navegación" único y planteamos tres preguntas: si los LM a pequeña escala pueden representar mejor este "lenguaje de navegación" que los LM a gran escala; si los LM con un único conjunto de parámetros pueden capturar suficientemente los comportamientos heterogéneos de diversos usuarios; y si un único LM con un rendimiento promedio alto puede funcionar de forma consistente a nivel de usuario. Para abordar esto, proponemos el Entrenamiento de Modelos de Lenguaje con Consciencia de Heterogeneidad (HeTLM), un método de entrenamiento de LM por clústeres adecuado para el comportamiento subjetivo. Demostramos experimentalmente que los LM a pequeña escala superan a los LM a gran escala preentrenados o ajustados cuando se entrenan utilizando un tokenizador por página; que los HeTLM con conjuntos de parámetros heterogéneos por clústeres superan a los LM individuales del mismo tamaño; y que logran una mejor alineación a nivel de usuario mejorando el rendimiento promedio y reduciendo la varianza durante el proceso de generación.

Takeaways, Limitations

Takeaways:
Demostramos que los LM de pequeña escala pueden modelar mejor el comportamiento subjetivo de navegación web de los usuarios utilizando tokenizadores a nivel de página.
Sugerimos que los métodos de entrenamiento basados ​​en clústeres, como HeTLM, pueden mejorar el rendimiento de LLM al tener en cuenta la heterogeneidad de los usuarios.
HeTLM logra un mayor rendimiento promedio y una menor variación de rendimiento que un solo LLM, lo que mejora la consistencia del rendimiento a nivel de usuario.
Limitations:
Las mejoras de rendimiento de HeTLM pueden estar limitadas a conjuntos de datos específicos y patrones de comportamiento del usuario.
Se necesitan más investigaciones para determinar la generalización entre diferentes tipos de comportamiento de usuario y tipos de sitios web/aplicaciones.
Se necesita un análisis más profundo del costo computacional y la escalabilidad de HeTLM.
👍