この論文では、大規模言語モデル(LLM)のパフォーマンスを向上させるための自動化されたプロンプト最適化技術であるACINGを紹介します。 LLMのパラメータとグラデーションにアクセスできないブラックボックス環境でも機能する強化学習ベースのフレームワークであるACINGは、ステートレスな連続行動問題でプロンプト最適化を定式化し、無限のプロンプトスペースを探索します。実験の結果、ACINGはさまざまな作業(instruction-induction、要約、事故連鎖推論)で人間が作成したプロンプトよりも性能に優れたプロンプトを76%の割合で生成し、最高の自動化基準モデルに対して最大33点、中間値で10点の性能向上を示しました。広範なさらなる実験により、ACINGの堅牢性と効率を確認した。ソースコードはFitHubで公開されています。