Cet article présente des recherches sur la résolution des problèmes de débogage et d'observabilité causés par le non-déterminisme du comportement des agents dans les systèmes logiciels modernes basés sur des agents d'IA utilisant des modèles de langage à grande échelle (MLL). Dans divers frameworks définissant les paramètres des agents par le biais d'invites en langage naturel, des outils de débogage et d'observabilité robustes sont essentiels, car le comportement de l'agent est non-déterministe en fonction de ses entrées. Dans cet article, nous explorons comment améliorer l'observabilité des développeurs en exploitant la découverte de processus et de causes des chemins d'exécution des agents. Cela permet de surveiller et de comprendre la variabilité du comportement des agents. De plus, nous complétons les techniques d'analyse statique basées sur les LLM pour distinguer les changements de comportement intentionnels des changements non intentionnels. Cette approche permet aux développeurs de mieux contrôler l'évolution des spécifications et d'identifier les aspects fonctionnels qui nécessitent des définitions plus précises et explicites.