Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Sélection de démonstration en temps linéaire pour l'apprentissage en contexte via l'estimation du gradient

Created by
  • Haebom

Auteur

Ziniu Zhang, Zhenshuo Zhang, Dongyue Li, Lu Wang, Jennifer Dy, Hongyang R. Zhang

Contour

Cet article présente un algorithme de sélection d'exemples de démonstration pour un ensemble de requêtes en apprentissage contextuel. Nous expliquons comment sélectionner k exemples parmi un ensemble de n exemples afin de les utiliser comme conditions d'inférence en aval. Contrairement aux méthodes existantes d'intégration de jetons basées sur la similarité, cet article propose une approche novatrice qui utilise le gradient des sorties dans l'espace d'intégration d'entrée. Nous estimons les sorties du modèle via une approximation du premier ordre utilisant le gradient et appliquons cette estimation à plusieurs sous-ensembles sélectionnés aléatoirement. Nous calculons un score d'influence pour chaque démonstration et sélectionnons les k exemples les plus pertinents. Comme les sorties du modèle et les gradients ne doivent être précalculés qu'une seule fois, l'algorithme fonctionne en temps linéaire par rapport aux tailles du modèle et de l'ensemble d'apprentissage. Des expériences approfondies sur divers modèles et ensembles de données démontrent son efficacité. La procédure d'estimation du gradient approche l'inférence complète avec moins de 1 % d'erreur sur six ensembles de données. Cela permet une sélection de sous-ensembles jusqu'à 37,7 fois plus rapide que les méthodes existantes et offre une amélioration moyenne de 11 % par rapport aux méthodes de sélection existantes basées sur l'intégration d'entrée.

Takeaways, Limitations

Takeaways:
Nous présentons un exemple de démonstration d'algorithme de sélection qui est plus efficace et plus performant que les méthodes basées sur l'intégration d'entrée.
Fournit une approximation précise de l'inférence complète grâce à une estimation basée sur le gradient.
Sélectionnez des exemples de démonstration rapidement et efficacement, même pour les modèles à grande échelle.
Il peut être utilisé dans diverses applications telles que le réglage rapide et l'inférence de la chaîne de pensée.
Limitations:
ÉTant donné que l’estimation basée sur le gradient repose sur des approximations de premier ordre, les erreurs peuvent augmenter dans les modèles ou les ensembles de données complexes.
L'efficacité de l'algorithme repose sur le pré-calcul de la sortie du modèle et des gradients, ce qui peut nécessiter des ressources de calcul importantes.
Un réglage des hyperparamètres peut être nécessaire pour optimiser le modèle et l’ensemble de données spécifiques.
👍