Cet article étudie la capacité de Private GPT (GPT) à générer automatiquement du code de test exécutable à partir des exigences. Plus précisément, nous présentons une méthode permettant aux responsables produit ou aux services de veille stratégique (BI) de générer directement des critères testables grâce à LLM, en utilisant des critères d'acceptation formalisés dans le cadre d'épopées ou de récits couramment utilisés dans les processus de développement modernes. Nous évaluons la qualité des tests générés selon deux méthodes : LLM générant directement du code à partir des exigences et une étape intermédiaire utilisant la syntaxe Gherkin. Les résultats montrent que le processus en deux étapes produit de meilleurs résultats en termes de lisibilité et de bonnes pratiques de codage (nombre de lignes de code et utilisation de bibliothèques supplémentaires couramment utilisées en test). Nous évaluons spécifiquement l'efficacité des invites dans deux scénarios : un programme « Hello World » et un modèle de classification numérique, démontrant que des invites structurées conduisent à des résultats de test de meilleure qualité.