每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

通过元提示调整基于 LLM 的代码优化:工业视角

Created by
  • Haebom

作者

龚敬之、Rafail Giavrimis、Paul Brookes、Vardan Voskanyan、吴凡、Mari Ashiga、Matthew Truscott、Mike Basios、Leslie Kanthan、徐杰、王铮

元提示代码优化(MPCO)

大纲

本文介绍了利用多个大规模语言模型 (LLM) 进行自动代码优化的研究。具体而言,为了应对特定模型提示工程的挑战——即针对特定 LLM 优化的提示在其他 LLM 上会失效——我们提出了元提示代码优化 (MPCO) 框架。MPCO 通过整合项目元数据、任务需求和 LLM 特定的上下文,动态生成上下文感知的优化提示。作为 ARTEMIS 代码优化平台的核心组件,MPCO 的有效性已通过对五个真实代码库进行 366 小时的运行时基准测试得到验证。与基线方法相比,MPCO 的性能提升高达 19.06%,其中 96% 的优化源自有意义的编辑。

Takeaways, Limitations

Takeaways:
MPCO 自动生成适用于各种 LLM 的高质量、特定任务的提示,从而实现利用多个 LLM 的系统的实际部署。
我们发现全面的语境整合对于有效的元提示至关重要。
我们证明,关键的法学硕士学位可以作为有效的元提示器,为行业从业者提供有用的见解。
我们通过展示真实代码库中的显著性能改进来证明 MPCO 的实用性。
Limitations:
论文中没有具体说明Limitations。(仅从摘要判断)
👍