Este artículo presenta ACING, una técnica automatizada de optimización de indicaciones para mejorar el rendimiento de modelos lingüísticos a gran escala (LLM). ACING, un marco basado en aprendizaje por refuerzo que funciona incluso en entornos de caja negra donde los parámetros y gradientes del LLM son inaccesibles, formula la optimización de indicaciones como un problema de acción continua sin estado, que explora un espacio infinito de indicaciones. Los resultados experimentales muestran que ACING genera indicaciones que superan a las generadas por humanos en un 76 % del tiempo en diversas tareas (inducción de instrucciones, resumen e inferencia de la cadena de pensamiento), alcanzando hasta 33 puntos y una mejora media del rendimiento de 10 puntos con respecto al mejor modelo de referencia automatizado. Amplios experimentos adicionales confirman la robustez y eficiencia de ACING. El código fuente está disponible en GitHub.