Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Tuning LLM-based Code Optimization via Meta-Prompting: An Industrial Perspective

Created by
  • Haebom

作者

Jingzhi Gong, Rafail Giavrimis, Paul Brookes, Vardan Voskanyan, Fan Wu, Mari Ashiga, Matthew Truscott, Mike Basios, Leslie Kanthan, Jie Xu, Zheng Wang

Meta-Prompted Code Optimization (MPCO)

概要

本論文は、いくつかの大規模言語モデル(LLM)を活用した自動コード最適化に関する研究を提示する。具体的には、特定のLLMに最適化されたプロンプトが他のLLMで失敗する問題、すなわちモデル固有のプロンプトエンジニアリングの難しさを解決するために、MTCO(Meta-Prompted Code Optimization)フレームワークを提案する。 MPCOは、プロジェクトメタデータ、作業要件、LLM固有のコンテキストを統合して、動的にコンテキストを認識する最適化プロンプトを生成します。 ARTEMISコード最適化プラットフォームの重要な部分であり、5つの実際のコードベースで366時間のランタイムベンチマークによってMPCOの効果を実証した。 MPCOは、基準方法と比較して最大19.06%の性能向上を達成し、最適化の96%が意味のある編集から始まった。

Takeaways、Limitations

Takeaways:
MPCOは、さまざまなLLMで動作する高品質のタスク固有のプロンプトを自動的に生成し、複数のLLMを利用するシステムの実質的な展開を可能にします。
包括的なコンテキスト統合が効果的なメタプロンプトに不可欠であることがわかりました。
主要LLMが効果的なメタプロンプターとして機能できることを確認し、産業現場の実務家に有用な洞察を提供します。
実際のコードベースでかなりの性能向上を実証し、MPCOの実用性を示す。
Limitations:
論文に具体的なLimitationsは記載されていない。 (Abstract内容のみで判断)
👍