Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Optimisation automatique des invites avec distillation rapide

Created by
  • Haebom

Auteur

Ernest A. Dyagin, Nikita I. Kulin, Artur R. Khairullin, Viktor N. Zhuravlev, Alena N. Sitkina

Contour

Cet article présente DistillPrompt, une nouvelle approche de génération automatique d'invites (autoprompting), qui suscite un vif intérêt grâce aux avancées de la recherche en ingénierie des invites pour les modèles de langage à grande échelle (LLM). DistillPrompt est une méthode d'autoprompting basée sur les LLM qui exploite les données d'apprentissage pour intégrer des informations spécifiques à une tâche dans les invites, selon un processus en plusieurs étapes. Des opérations de distillation, de compression et d'agrégation sont utilisées pour explorer en profondeur l'espace des invites. Des expériences avec le modèle de langage t-lite-instruct-0.1 sur divers ensembles de données pour des tâches de classification et de génération de texte démontrent des améliorations significatives des performances par rapport aux méthodes existantes sur des indicateurs clés (par exemple, une amélioration moyenne de 20,12 % par rapport à Grips sur l'ensemble des données). Cela démontre que DistillPrompt est l'une des approches d'autoprompting non basées sur le gradient les plus efficaces.

Takeaways, Limitations

Takeaways:
Une nouvelle méthodologie intégrant des opérations de distillation, de compression et d'agrégation dans l'autoprompting basé sur LLM est présentée.
Permet d'obtenir des améliorations significatives des performances dans les tâches de classification et de génération de texte par rapport aux méthodes existantes.
A démontré une grande efficacité dans une approche d'auto-invite non basée sur la pente.
Limitations:
Les résultats expérimentaux sont présentés uniquement pour un LLM spécifique (t-lite-instruct-0.1) et un ensemble de données limité. Des performances de généralisation sur d'autres LLM et ensembles de données sont requises.
Manque d’analyse détaillée de la taille et des performances des LLM utilisés.
Une analyse comparative plus approfondie avec d’autres méthodes d’auto-invite est nécessaire.
👍