将优化或可满足性问题的自然语言描述转换为有效的 MiniZinc 模型是一项挑战,因为它需要逻辑推理和约束编程的专业知识。本文介绍了 Gala,这是一个使用全局代理方法来应对这一挑战的框架。Gala 根据全局约束类型将建模任务分解为多个专门的大规模语言模型 (LLM) 代理。每个代理专用于检测特定类型的全局约束并生成代码,最终由汇编器代理将这些约束片段集成到完整的 MiniZinc 模型中。通过将问题分解为更小、定义明确的子任务,每个 LLM 可以处理更简单的推理任务,从而降低整体复杂性。我们使用多个 LLM 进行了初步实验,结果表明其性能优于一次性提示和思路链提示等基准方法。