Cet article présente un algorithme de sélection d'exemples de démonstration pour un ensemble de requêtes en apprentissage contextuel. Nous expliquons comment sélectionner k exemples parmi un ensemble de n exemples afin de les utiliser comme conditions d'inférence en aval. Contrairement aux méthodes existantes d'intégration de jetons basées sur la similarité, cet article propose une approche novatrice qui utilise le gradient des sorties dans l'espace d'intégration d'entrée. Nous estimons les sorties du modèle via une approximation du premier ordre utilisant le gradient et appliquons cette estimation à plusieurs sous-ensembles sélectionnés aléatoirement. Nous calculons un score d'influence pour chaque démonstration et sélectionnons les k exemples les plus pertinents. Comme les sorties du modèle et les gradients ne doivent être précalculés qu'une seule fois, l'algorithme fonctionne en temps linéaire par rapport aux tailles du modèle et de l'ensemble d'apprentissage. Des expériences approfondies sur divers modèles et ensembles de données démontrent son efficacité. La procédure d'estimation du gradient approche l'inférence complète avec moins de 1 % d'erreur sur six ensembles de données. Cela permet une sélection de sous-ensembles jusqu'à 37,7 fois plus rapide que les méthodes existantes et offre une amélioration moyenne de 11 % par rapport aux méthodes de sélection existantes basées sur l'intégration d'entrée.