Cet article présente ACING, une technique d'optimisation automatisée des invites visant à améliorer les performances des modèles de langage à grande échelle (MLH). ACING, un framework basé sur l'apprentissage par renforcement, fonctionne même dans les environnements de type boîte noire où les paramètres et les gradients du LMH sont inaccessibles. Il formule l'optimisation des invites comme un problème d'action continue sans état, explorant un espace d'invites infini. Les résultats expérimentaux montrent qu'ACING génère des invites supérieures à celles générées par l'homme dans 76 % des cas pour diverses tâches (induction d'instructions, résumé et inférence de chaînes de pensée), obtenant jusqu'à 33 points et une amélioration médiane des performances de 10 points par rapport au meilleur modèle de référence automatisé. Des expériences complémentaires approfondies confirment la robustesse et l'efficacité d'ACING. Le code source est disponible sur GitHub.