Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

What Makes a Good Curriculum? Disentangling the Effects of Data Ordering on LLM Mathematical Reasoning

Created by
  • Haebom

作者

Yaning Jia, Chunhui Zhang, Xingjian Diao, Xiangchi Yuan, Zhongyu Ouyang, Chiyu Ma, Soroush Vosoughi

概要

本論文は、大規模言語モデル(LLM)の推論能力を向上させるために広く使用されているカリキュラム学習(CL)戦略の研究を行います。さまざまな難易度測定スキームとトレーニング設定を統合して、CLの効果、順方向/逆方向CLの比較、および測定スキームの影響に関する基本的な質問に答えます。 Llama3.1-8B、Mistral-7B、Gemma3-4Bモデルを使用して数学的推論ベンチマークの実験を行った。

Takeaways、Limitations

普遍的なカリキュラム戦略は存在せず、順方向と逆方向のCLの相対的な影響は、モデルの能力と作業の複雑さによって異なります。
単一の指標内でも、異なる難易度レベルのサンプルは、作業要件に応じて異なる利点を提供します。
作業アライメントカリキュラムはモデルの最終表現と一般化に焦点を当てているのに対し、内部状態カリキュラムは信頼性や不確実性などの内部状態を調整します。
決定不確実性の高いサンプルを優先することは学習結果を改善できることを示唆している。
研究はオフライン評価フレームワークに基づいており、オンライン学習環境での効果にはさらなる研究が必要です。
👍