Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Comportements subjectifs et préférences en LLM : langue de navigation

Created by
  • Haebom

Auteur

Sai Sundaresan, Harshita Chopra, Atanu R. Sinha, Koustava Goswami, Nagasai Saketh Naidu, Raghav Karan, N Anushka

Contour

Cet article s'interroge sur l'efficacité des modèles linguistiques à grande échelle (MLH) à capturer les comportements subjectifs et hétérogènes des utilisateurs en matière d'utilisation de sites web ou d'applications. Nous considérons les journaux d'accès séquentiels aux pages d'un utilisateur comme sa « langue de navigation » unique et posons trois questions : les ML à petite échelle peuvent-ils mieux représenter cette « langue de navigation » que les ML à grande échelle ? Les ML avec un seul jeu de paramètres peuvent-ils suffisamment capturer les comportements hétérogènes de divers utilisateurs ? Un ML unique avec des performances moyennes élevées peut-il être performant de manière constante au niveau utilisateur ? Pour répondre à cette question, nous proposons l'apprentissage des modèles linguistiques sensible à l'hétérogénéité (HeTLM), une méthode d'apprentissage des ML par cluster adaptée au comportement subjectif. Nous démontrons expérimentalement que les ML à petite échelle sont plus performants que les ML à grande échelle pré-entraînés ou affinés lorsqu'ils sont entraînés à l'aide d'un tokenizer par page ; que les HeTLM avec des jeux de paramètres hétérogènes par cluster sont plus performants que les ML uniques de même taille ; et qu'ils parviennent à un meilleur alignement au niveau de l'utilisateur en améliorant les performances moyennes et en réduisant la variance au cours du processus de génération.

Takeaways, Limitations

Takeaways:
Nous démontrons que les LM à petite échelle peuvent mieux modéliser le comportement subjectif de navigation Web des utilisateurs à l'aide de tokenizers au niveau de la page.
Nous suggérons que les méthodes de formation basées sur des clusters telles que HeTLM peuvent améliorer les performances du LLM en prenant en compte l'hétérogénéité des utilisateurs.
HeTLM atteint des performances moyennes plus élevées et une variance de performances plus faible qu'un seul LLM, améliorant ainsi la cohérence des performances au niveau de l'utilisateur.
Limitations:
Les améliorations des performances de HeTLM peuvent être limitées à des ensembles de données et à des modèles de comportement utilisateur spécifiques.
Des recherches supplémentaires sont nécessaires pour déterminer la généralisabilité à différents types de comportement d’utilisateur et types de sites Web/applications.
Une analyse plus approfondie du coût de calcul et de l’évolutivité de HeTLM est nécessaire.
👍