En este artículo, abordamos el problema de la ambigüedad de la intención del usuario, además del problema de la alucinación en la síntesis de programas mediante modelos de lenguaje a gran escala (LLM). Demostramos este problema de ambigüedad en el contexto de redes de la síntesis compositiva incremental de mapas de rutas y listas de control de acceso (ACL). Estas estructuras suelen superponerse en el espacio de encabezado, lo que impide que los LLM infieran las prioridades relativas de las tareas sin la interacción del usuario. Las mediciones en un entorno de nube a gran escala revelan ACL complejas con cientos de superposiciones, lo que demuestra que la ambigüedad es un problema real. En este artículo, proponemos un sistema prototipo llamado Clarify que añade un nuevo módulo, Desambiguador, a los LLM para ayudar a inducir la intención del usuario. Clarify sintetiza y verifica incrementalmente las políticas de enrutamiento tras la desambiguación para pequeñas cargas de trabajo de síntesis. Nuestro enfoque para la ambigüedad también es útil en el caso más general, donde los LLM pueden sintetizar con precisión la intención de las actualizaciones, pero su integración es ambigua y puede generar diferentes comportamientos globales.