Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Every Rollout Counts: Optimal Resource Allocation for Efficient Test-Time Scaling

Created by
  • Haebom

作者

Xinglin Wang, Yiwei Li, Shaoxiong Feng, Peiwen Yuan, Yueqi Zhang, Jiayi Shi, Chuyi Tan, Boyuan Pan, Yao Hu, Kan Li

概要

本論文は、大規模言語モデル(LLM)の性能を向上させるためのTest-Time Scaling(TTS)技術の効率的なリソース割り当て戦略を提示する。特に、固定ロールアウト予算内で最適な推論経路を探索するためのリソース割り当て問題を提起し、既存の方法の非効率性を分析し、それを改善するためのDirection-Oriented Resource Allocation(DORA)方法を提案する。 DORAは方向レベルでリソースを割り当てて計算効率を高め、数学的推論ベンチマークで既存の方法を上回るパフォーマンスを示しました。

Takeaways、Limitations

Takeaways:
TTSにおけるリソース割り当て問題を最適化問題として定義し,理論的に最適な割り当て戦略を導き出す。
既存のTTS法の問題である候補数による偏向を指摘し、DORAを通じてこれを解決する。
MATH500、AIME2024、AIME2025などのトリッキーな数学的推論ベンチマークでSOTAを達成。
LLMのTTSの理解を高め、今後の研究方向を提示する。
Limitations:
具体的なDORAの実装の詳細と複雑さの説明の欠如
他のTTS技術との比較分析と一般化の可能性に関するさらなる研究が必要
リソース割り当て問題の他の側面(モデルモデル、データ特性など)の考慮事項の欠如。
👍