Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Entropy-Gated Branching for Efficient Test-Time Reasoning

Created by
  • Haebom

作者

Xianzhi Li, Ethan Callanan, Abdellah Ghassel, Xiaodan Zhu

概要

本論文では、大規模言語モデル(LLM)の推論能力と問題解決精度を大幅に向上させるビームサーチなどのテスト時間計算方法の効率を高める新しい推論技術であるエントロピーゲート分岐(Entropy-Gated Branching)を提案します。従来のビームサーチは、モデルが既に高い確信を示す低多様性分岐を探索するのに多くの計算資源を浪費する一方、本論文では、不確実な推論ステップの小さなサブセットが最終予測精度に不均衡に大きな影響を及ぼすことを観察した。そこで、エントロピーをゲートメカニズムとして活用し、不確実性が高い点でのみ予測シーケンスを選択的に拡張することにより、計算リソースを動的に割り当てる方法を提示する。外部フィードバックモデルを使用して、候補分岐をランク付けし、剪定を実行します。数学と金融推論のベンチマークの実験の結果、この戦略は標準の推論よりも精度を22.6%向上させ、従来のビームサーチよりも37%速い速度で類似またはより高い性能を達成しました。これは、推論の間、動的リソース割り当てが効率と効果を大幅に向上できることを示しています。

Takeaways、Limitations

Takeaways:
エントロピーベースの動的資源割り当てによりLLMの推論効率と精度を同時に改善できることを示した。
不確実性の高い点に集中的に計算資源を割り当てる戦略の有効性を実験的に証明した。
従来のビームサーチより高速で正確な推論を可能にする新しい方法を提示
LLMの推論能力を向上させるためのより拡張可能な経路の提示
Limitations:
提案された方法の性能は特定のベンチマーク(数学および金融推論)に限定され、他の種類の問題に対する一般化の可能性が不確実である。
外部フィードバックモデルの性能に依存し、フィードバックモデルの設計と学習の詳細が不足している。
エントロピーを不確実性尺度として使用することの限界および他の不確実性尺度を使用した場合の性能変化の分析が不足している。
👍