Dans cet article, nous proposons une technique de distillation d'ensembles de données utilisant un modèle génératif pour réduire la dépendance aux grands ensembles de données. Contrairement aux méthodes existantes qui se concentrent sur la cohérence avec l'ensemble de données d'origine, cet article propose une stratégie d'échantillonnage spécifique à chaque tâche afin d'améliorer les performances de tâches en aval spécifiques, telles que les tâches de classification. Cette méthode génère un ensemble de données en obtenant une distribution d'échantillonnage correspondant à la distribution de difficulté de l'ensemble de données d'origine à partir du pool d'images, et applique une transformation logarithmique comme étape de prétraitement pour corriger le biais de distribution. Grâce à des expérimentations approfondies, nous vérifions l'efficacité de la méthode proposée et suggérons son applicabilité à d'autres tâches en aval. Le code est disponible sur GitHub.