Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Low-Confidence Gold: Refining Low-Confidence Samples for Efficient Instruction Tuning

Created by
  • Haebom

作者

Hongyi Cai, Jie Li, Mohammad Mahdinur Ra​​hman, Wenzhen Dong

概要

本稿では、大規模言語モデルのディレクティブの微調整効率を向上させるための新しいフィルタリングフレームワークであるLow-Confidence Gold(LCG)を提案します。 LCGは、中心ベースのクラスタリングと信頼性ベースの選択を活用して、価値あるディレクティブのペアを識別します。軽量分類器を使用した準マップ学習方式により、高品質のサブセットを作成しながらデータの多様性を維持します。実験の結果、LCGでフィルタリングされた6Kサンプルで微調整されたモデルは、従来の方法よりも優れた性能を示し、MT-benchで大幅な性能向上と総合的な評価指標全体で一貫した性能向上を示しました。モデルのパフォーマンスを維持しながら効率を高めるフレームワークの効果は、効率的なディレクティブの微調整のための有望な方向を提示します。

Takeaways、Limitations

Takeaways:
LCGフレームワークは、少量の高品質データだけで大規模言語モデルのディレクティブの微調整性能を向上させることができます。
従来のバルクデータに基づく微調整方法と比較して効率的なディレクティブ微調整方法を提示する。
中心ベースのクラスタリングと信頼性ベースの選択を組み合わせた新しいデータフィルタリング手法の有効性を実証
MTベンチを含む様々な評価指標で一貫した性能向上を達成する。
Limitations:
LCGの性能は軽量分類器の性能に依存し得る。
6Kという限られたデータサイズで実験を進め、より大きな規模のデータセットの一般化性能には追加の研究が必要です。
特定の種類のディレクティブまたはデータセットに偏っている可能性があります。
フレームワークの一般化の可能性について追加の検証が必要です。
👍