Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Parse Trees Guided LLM Prompt Compression

Created by
  • Haebom

作者

Wenhao Mao, Chengbin Hou, Tianyu Zhang, Xinyu Lin, Ke Tang, Hairong Lv

概要

この論文では、大規模言語モデル(LLM)のパフォーマンスを向上させるための豊富なコンテキストを提供する方法を研究します。長いプロンプトによる計算コストの増加とLLM入力制限の問題を解決するために、既存の生成的圧縮方式と選択的圧縮方式の限界を克服する新しいオプションの圧縮方法であるPartPromptを提案します。 PartPromptは、言語ルールベースの構文ツリーを利用して各ノードの情報エントロピーを計算し、それに基づいて階層構造(文、段落、セクションの依存性)を考慮したグローバルツリーを構築します。グローバルツリーの上方および下方への伝播を介してノード値を調整し、調整されたノード値に基づいて再帰アルゴリズムを使用してツリーを持つことによってプロンプトを圧縮します。実験の結果、PartPromptはさまざまなデータセット、評価指標、圧縮率、LLMで最先端のパフォーマンスを達成し、圧縮されたプロンプトの凝集性と非常に長いプロンプトシナリオでも優れています。

Takeaways、Limitations

Takeaways:
LLMの入力制限と計算コストの問題を効果的に解決する新しいプロンプト圧縮法の提示
言語規則とグローバル構造を考慮して、既存の方法の限界を克服する。
さまざまなデータセットとLLMで最先端のパフォーマンスを実現。
圧縮されたプロンプトの凝集性の向上。
非常に長いプロンプトにも効果的であることを証明。
Limitations:
PartPromptのパフォーマンスは、言語規則と解析の精度に依存する可能性があります。
特定の言語またはドメインの一般化性能に関するさらなる研究が必要
非常に複雑な構造のプロンプトに対する処理効率の評価が必要
👍