Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Enhancing Few-Shot Transfer Learning with Optimized Multi-Task Prompt Tuning through Modular Prompt Composition

Created by
  • Haebom

作者

Ahmad Pouramini, Hesham Faili

概要

本稿では、マルチタスクプロンプトのチューニングのパフォーマンスを向上させるために、各タスクのプロンプトを共有プロンプト(ソースプロンプト)とタスク固有のプロンプト(プライベートプロンプト)に分割する方法を提案します。トレーニング中、ソースプロンプトは微調整され、プライベートプロンプトと統合され、各タスクのターゲットプロンプトが生成されます。ソースプロンプトを組み合わせるさまざまな方法を提示し、比較分析して、ソースとプライベートプロンプトの役割を分析し、パフォーマンスを最適化するための柔軟で調整可能な構成を提供します。実験結果は,従来のプロンプトのチューニングと関連研究より精度と剛性が改善され,特に,少数ショット設定でGLUEベンチマークを含む様々な操作で他の方法より優れた性能を示した。これは、はるかに少ない量のトレーニングデータで達成され、少数ショットの設定に役立つ方法であることを示唆しています。

Takeaways、Limitations

Takeaways:
マルチタスクプロンプトチューニングのパフォーマンスを向上させる新しい方法を提示
ソースプロンプトとプライベートプロンプトの役割を明確に分析し、それに基づいて柔軟な構成を提供する
少数ショット設定で従来方式と比較して優れた性能を実現
少量のトレーニングデータで高いパフォーマンスが得られることを示す
Limitations:
提示された方法の一般化性能に関するさらなる研究の必要性
さまざまなタスクとモデルのスケーラビリティ評価が必要
ソースプロンプトの選択と結合戦略の最適化に関するさらなる研究が必要
👍