본 논문은 대규모 언어 모델(LLM)을 이용한 프로그램 합성에서 환각(hallucination) 문제 외에 사용자 의도의 모호성 문제를 다룹니다. 라우트 맵과 ACL(Access Control List)의 증분 구성 합성이라는 네트워킹 맥락에서 이러한 모호성 문제를 보여줍니다. 이러한 구조는 헤더 공간에서 자주 겹치기 때문에, LLM이 사용자 상호 작용 없이 작업의 상대적 우선 순위를 추론하는 것이 불가능합니다. 대규모 클라우드 환경에서의 측정 결과, 수백 개의 겹침이 있는 복잡한 ACL이 확인되어 모호성이 실제 문제임을 보여줍니다. 본 논문에서는 사용자 의도를 유도하는 데 도움이 되는 새로운 모듈인 Disambiguator를 LLM에 추가한 Clarify라는 프로토타입 시스템을 제안합니다. 작은 합성 작업량에서 Clarify는 모호성 해소 후 라우팅 정책을 증분적으로 합성하고 검증합니다. 모호성에 대한 본 논문의 접근 방식은 LLM이 업데이트의 의도를 정확하게 합성할 수 있지만, 통합이 모호하여 서로 다른 글로벌 동작으로 이어질 수 있는 보다 일반적인 경우에도 유용합니다.