Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Expliquez moins, comprenez plus : détection du jargon grâce à un réglage fin personnalisé et efficace des paramètres

Created by
  • Haebom

Auteur

Bohao Wu, Qingyun Wang, Yue Guo

Contour

Cet article présente une méthode de détection de termes spécialisés et de personnalisation des explications afin de permettre à des lecteurs d'horizons divers de comprendre des documents spécialisés. Les approches de personnalisation spécifiques à chaque utilisateur nécessitant un effort d'annotation et des ressources de calcul importants, cet article explore des stratégies de personnalisation efficaces et évolutives. Plus précisément, nous explorons deux stratégies : le personnalisation légère utilisant l'adaptation de bas rang (LoRA) sur des modèles open source et l'invite personnalisée, qui ajuste le comportement du modèle au moment de l'inférence. Nous étudions également une approche hybride combinant des données d'annotation limitées avec des signaux d'arrière-plan utilisateur issus d'un apprentissage non supervisé. Les résultats expérimentaux montrent que le modèle LoRA personnalisé surpasse GPT-4 de 21,4 % en score F1 et le modèle de référence Oracle le plus performant de 8,3 %. De plus, il atteint des performances similaires en utilisant seulement 10 % des données d'apprentissage annotées, démontrant ainsi sa praticabilité même dans des environnements aux ressources limitées.

Takeaways, Limitations_

Takeaways:
Il s’agit de la première étude visant à examiner systématiquement une méthode de personnalisation de la détection de termes efficace et économe en ressources à l’aide de modèles de langage open source.
Nous avons obtenu des performances supérieures à celles du GPT-4 grâce à un réglage fin léger basé sur LoRA.
Il contribue à la création de systèmes NLP pratiques, évolutifs et adaptatifs à l'utilisateur en maintenant des performances élevées même avec des données limitées.
Limitations:
Une validation supplémentaire de la généralisabilité de l’ensemble de données utilisé dans l’étude est nécessaire.
D’autres évaluations de performance sont nécessaires pour différents types de terminologie et de documents.
Des recherches sont nécessaires pour améliorer encore l’efficacité des stratégies d’incitation personnalisées.
👍