为复杂的多步骤工作流可靠地构建大规模语言模型 (LLM) 是一项关键挑战。传统方法(例如优化流水线中的单个提示)难以实现结构化任务所需的形式化合规性。本文介绍了类型兼容自适应级联 (TACs) 框架,该框架将工作流自适应重新解释为类型化的概率程序学习。TACs 将整个工作流(由参数高效适配的 LLM 和确定性逻辑组成)视为非正则化的联合分布。这使得即使在潜在的中间结构中也能进行基于原则的梯度学习。此外,我们证明,随着模型学习类型合规性,优化偏差会消失,这为有效的优化目标提供了理论基础。实验表明,TACs 的表现优于最先进的基于提示优化的模型。具体而言,在结构化任务上,FinQA 在 Qwen 3 8B 模型上的准确率从 12.0% 提升至 24.7%,MGSM-SymPy 在 Gemma 2 27B 模型上的准确率从 57.1% 提升至 75.9%,MGSM 在 Gemma 7B 模型上的准确率从 1.6% 提升至 27.3%,MuSR 则从 36.5% 提升至 62.6%。TAC 为开发可靠且符合任务要求的 LLM 系统提供了稳健且理论支撑的范例。