Dans cet article, nous abordons le problème de l'ambiguïté de l'intention utilisateur, ainsi que celui de l'hallucination dans la synthèse de programmes à l'aide de modèles de langage à grande échelle (MLH). Nous démontrons ce problème d'ambiguïté dans le contexte réseau de la synthèse compositionnelle incrémentale de cartes de route et de listes de contrôle d'accès (ACL). Ces structures se chevauchent souvent dans l'espace d'en-tête, ce qui empêche les LLM de déduire les priorités relatives des tâches sans interaction utilisateur. Des mesures dans un environnement cloud à grande échelle révèlent des LCH complexes avec des centaines de chevauchements, démontrant que l'ambiguïté est un problème réel. Dans cet article, nous proposons un système prototype appelé Clarify qui ajoute un nouveau module, Disambiguator, à LLM pour aider à induire l'intention utilisateur. Clarify synthétise et vérifie de manière incrémentale les politiques de routage après désambiguïsation pour les petites charges de travail de synthèse. Notre approche de l'ambiguïté est également utile dans le cas plus général où les LLM peuvent synthétiser avec précision l'intention des mises à jour, mais leur intégration est ambiguë et peut conduire à des comportements globaux différents.