Cette page résume et organise les publications en intelligence artificielle du monde entier. Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif. Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.
Comportements subjectifs et préférences en LLM : langue de navigation
Created by
Haebom
Auteur
Sai Sundaresan, Harshita Chopra, Atanu R. Sinha, Koustava Goswami, Nagasai Saketh Naidu, Raghav Karan, N Anushka
Contour
Cet article s'interroge sur l'efficacité des modèles linguistiques à grande échelle (MLH) à capturer les comportements subjectifs et hétérogènes des utilisateurs en matière d'utilisation de sites web ou d'applications. Nous considérons les journaux d'accès séquentiels aux pages d'un utilisateur comme sa « langue de navigation » unique et posons trois questions : les ML à petite échelle peuvent-ils mieux représenter cette « langue de navigation » que les ML à grande échelle ? Les ML avec un seul jeu de paramètres peuvent-ils suffisamment capturer les comportements hétérogènes de divers utilisateurs ? Un ML unique avec des performances moyennes élevées peut-il être performant de manière constante au niveau utilisateur ? Pour répondre à cette question, nous proposons l'apprentissage des modèles linguistiques sensible à l'hétérogénéité (HeTLM), une méthode d'apprentissage des ML par cluster adaptée au comportement subjectif. Nous démontrons expérimentalement que les ML à petite échelle sont plus performants que les ML à grande échelle pré-entraînés ou affinés lorsqu'ils sont entraînés à l'aide d'un tokenizer par page ; que les HeTLM avec des jeux de paramètres hétérogènes par cluster sont plus performants que les ML uniques de même taille ; et qu'ils parviennent à un meilleur alignement au niveau de l'utilisateur en améliorant les performances moyennes et en réduisant la variance au cours du processus de génération.
Takeaways, Limitations
•
Takeaways:
◦
Nous démontrons que les LM à petite échelle peuvent mieux modéliser le comportement subjectif de navigation Web des utilisateurs à l'aide de tokenizers au niveau de la page.
◦
Nous suggérons que les méthodes de formation basées sur des clusters telles que HeTLM peuvent améliorer les performances du LLM en prenant en compte l'hétérogénéité des utilisateurs.
◦
HeTLM atteint des performances moyennes plus élevées et une variance de performances plus faible qu'un seul LLM, améliorant ainsi la cohérence des performances au niveau de l'utilisateur.
•
Limitations:
◦
Les améliorations des performances de HeTLM peuvent être limitées à des ensembles de données et à des modèles de comportement utilisateur spécifiques.
◦
Des recherches supplémentaires sont nécessaires pour déterminer la généralisabilité à différents types de comportement d’utilisateur et types de sites Web/applications.
◦
Une analyse plus approfondie du coût de calcul et de l’évolutivité de HeTLM est nécessaire.