Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

PMPO: Probabilistic Metric Prompt Optimization for Small and Large Language Models

Created by
  • Haebom

作者

Chenzhuo Zhao, Ziqian Liu, Xinda Wang, Junting Lu, Chaoyi Ruan

概要

この論文は、大規模言語モデルのパフォーマンスを向上させるためのファインチューニングの代替案として、プロンプトの最適化に焦点を当てています。従来のプロンプト最適化方法は、完全な出力サンプリングと、自己批判または人の注釈ベースの好みの評価に依存して、スケーラビリティが制限されるという限界を持っています。本論文では、トークン単位のクロスエントロピーを軽量の直接評価信号として使用する統合フレームワークであるプロモーションメトリックプロンプト最適化(PMPO)を紹介します。 PMPOは、マスキングベースの分析を通じて低品質のプロンプト部分を見つけ、繰り返し再作成して改善されたバリエーションを提案します。具体的には、PMPOは、評価の過程で単一の前方パスで損失を最小限に抑えて変形を選択し、出力サンプリングと人間ベースのスコアリングを排除します。書き換え提案には標準生成を使用します。これらの損失ベースの戦略は、マップ学習と好みベースのタスクの両方をサポートします。さまざまなモデルサイズとデータセットでは、PMPOは従来のプロンプト最適化より優れたパフォーマンスを示しました。 BBHで最高の平均精度を達成し、GSM8KおよびAQUA RATでも強力な性能を示し、AlpacaEval 2.0の勝率を19%以上高めました。

Takeaways、Limitations

Takeaways:
トークン単位交差エントロピーを用いた軽量化されたプロンプト最適化法の提示
出力サンプリングと人の評価なしで効率的なプロンプトを最適化
指導学習と嗜好ベースのタスクの両方がサポート可能
さまざまなモデルとデータセットで従来の方法と比較して優れた性能を実証(BBH、GSM8K、AQUA RAT、AlpacaEval 2.0)
Limitations:
本論文で提示されたPMPOの一般化性能に関するさらなる研究が必要となるかもしれない。
特定のデータセットまたはモデルの最適化が行われた可能性があり、他のデータセットまたはモデルへの適用性をさらに検証する必要があります。
マスキングベースの分析の制限により、一部の低品質プロンプト部分を正確に識別できない可能性があります。
👍