Este artículo presenta DistillPrompt, un novedoso enfoque para la generación automática de indicaciones (autoprompting), que ha captado la atención debido a los avances en la investigación de ingeniería de indicaciones para modelos lingüísticos a gran escala (LLM). DistillPrompt es un método de autoprompting basado en LLM que aprovecha los datos de entrenamiento para integrar información específica de la tarea en las indicaciones mediante un proceso de varios pasos. Se emplean operaciones de destilación, compresión y agregación para explorar a fondo el espacio de indicaciones. Experimentos con el modelo lingüístico t-lite-instruct-0.1 en diversos conjuntos de datos para tareas de clasificación y generación de texto demuestran mejoras significativas en el rendimiento con respecto a los métodos existentes en métricas clave (p. ej., una mejora promedio del 20,12 % con respecto a Grips en todo el conjunto de datos). Esto demuestra que DistillPrompt es uno de los enfoques de autoprompting no basado en gradientes más eficaces.