Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Think How to Think: Mitigating Overthinking with Autonomous Difficulty Cognition in Large Reasoning Models

Created by
  • Haebom

作者

Yongjiang Liu, Haoxi Li, Xiaosong Ma, Jie Zhang, Song Guo

概要

この論文は、大規模推論モデル(LRM)の過剰な推論問題を解決するために、Think-How-to-Think(TH2T)という新しい2段階微調整戦略を提案します。 TH2Tは最初に難易度レベルの認識をモデルに注入して推論の深さを調整し、次に中間推論段階で不要な推論パターンを特定し除去する過程で過剰な推論を減らす。短くて長い推論パスを混ぜたデータセットを使って訓練され、7B、14B、32Bモデル実験の結果、簡単な作業では70%以上、難しい作業では40%以上の推論コストを節約しながら性能を維持することを示しています。

Takeaways、Limitations

Takeaways:
大規模言語モデルの過剰な推論問題を効果的に解決する新しい方法を提示
推論コストを大幅に削減しながら、パフォーマンスを低下させることなくモデルの効率を向上させます。
モデルが作業の難易度を認識し、それに応じて推論プロセスを調整する能力を向上させる。
中間推論ステップの不要な繰り返しや不要な情報を排除することで、推論プロセスの効率を高めます。
Limitations:
提案された方法の一般性に関するさらなる研究が必要である。 (さまざまな種類の問題やモデルの実験が必要)
「Difficulty hypnosis」と「redundancy hypnosis」の具体的な実装方法の詳細な説明が不足することがある。
特定のデータセットへの依存が存在する可能性。他のデータセットに拡張するとパフォーマンスが低下する可能性があります。
👍