本文介绍了提示优化的研究,这对于提升大规模语言模型 (LLM) 的性能至关重要。与以往专注于特定用户提示的研究不同,本研究着重于优化适用于各种任务和领域的系统提示。具体而言,我们提出了一个元学习框架,用于设计对各种用户提示具有鲁棒性且适用于未知任务的系统提示。该框架从多个数据集中的各种用户提示中进行元学习,生成系统提示,并迭代更新以产生协同效应。在五个不同领域的 14 个未知数据集上进行的实验结果表明,该方法生成的系统提示能够有效地泛化到各种用户提示中。此外,我们证明优化后的系统提示能够快速适应未知任务,从而减少测试过程中所需的用户提示优化步骤,同时提升性能。