Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Predicting LLM Reasoning Performance with Small Proxy Model

Created by
  • Haebom

作者

Woosung Koh, Juyoung Suk, Sungjun Han, Se-Young Yun, Jamin Shin

概要

大規模な言語モデル 事前トレーニングの高コスト問題を解決するために、小規模なプロキシモデルを活用してデータセットを最適化する方法を紹介します。特に、大規模モデルでしか見られない推論能力の難しさを解決するために、RBridgeを導入することで、10億以下の小規模プロキシモデルが(1)事前訓練目標と(2)ターゲットタスクに近づくように整列し、大規模モデルの推論能力を効果的に予測できることを示しています。 rBridgeは否定対数尤度を作業の並べ替えで重み付けし、最先端モデルの推論追跡をゴールドラベルとして使用します。実験の結果、rBridgeはデータセットのランキングコストを従来比100倍以上削減し、6つの推論ベンチマークで10億から320億規模のモデル間で最も強力な相関関係を達成し、事前トレーニングデータセット間の予測関係を10億から70億規模でゼロショット転送することに成功しました。

Takeaways、Limitations

Takeaways:
小規模プロキシモデルを活用した大規模言語モデルの推論能力訓練のためのデータセット最適化の可能性の提示
RBridgeでデータセットランキングコストを大幅に削減(100倍以上)
様々な規模のモデル間推論性能予測関係の構築
事前トレーニングデータセット間の知識遷移(ゼロショット転送)
Limitations:
提示された特定のRBridgeの技術的詳細(例えば、タスクのソート方法、重み付け方法など)の詳細情報の欠如。
特定のベンチマークおよびモデル規模に限定された実験結果。
単一の論文だけでは、他の種類のモデルの一般化性能に対する自信の欠如。
👍