Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

ConCISE: Confidence-guided Compression in Step-by-step Efficient Reasoning

Created by
  • Haebom

作者

Ziqing Qiao, Yongheng Deng, Jiali Zeng, Dong Wang, Lai Wei, Guanbo Wang, Fandong Meng, Jie Zhou, Ju Ren, Yaoxue Zhang

概要

本論文では、大規模推論モデル(LRM)が事故過程(CoT)プロンプトを介して複雑な推論作業で強力なパフォーマンスを発揮しますが、過度の出力によって計算オーバーヘッドが増加する問題を解決することがよくあります。従来の微調整ベースの圧縮方法は、推論の一貫性を阻害する危険性がある事後剪定または不要な内容を完全に除去することができないサンプリングベースの選択に依存している。これを解決するために、この論文は、LRMの過度の反芻の2つの主なパターン、すなわちモデルが正しい中間段階を反芻する自信不足(Confidence Deficit)と検証された自信のある回答後も反芻が続く終了遅延(Termination Delay)を自信ベースの観点から定義する。これに基づいて、本論文は、自信注入(Confidence Injection)による推論自信の向上と十分な自信がある場合に推論を終了する早期終了(Early Stopping)を統合して簡潔な推論チェーンを生成するConCISE(Confidence-guided Compression In Step-by-step Efficient Reason)広範な実験の結果、ConCISEで生成されたデータに対してLRMを微調整することは、基準方法と比較して圧縮と作業性能のバランスをよりよく調整し、SimPO基準で最大約50%の長さの短縮と高い作業精度を維持することを示しています。

Takeaways、Limitations

Takeaways:
LRMの過剰出力による計算オーバーヘッドの問題を効果的に解決するConCISEフレームワークの提示。
自信に基づく推論圧縮戦略による圧縮率と性能の最適なバランスの達成
SimPOを基準に最大50%の出力長を低減しながら、高精度を維持。
Limitations:
ConCISEフレームワークの性能は、特定のデータセット(SimPO)の実験結果に基づいており、他のデータセットまたはタスクの一般化性能にはさらなる研究が必要です。
自信スコアの正確さへの依存度が高く、自信スコア測定の不正確さがパフォーマンスに影響を与える可能性があります。
早期終了基準の設定に関する追加の研究が必要であり、最適な早期終了基準は作業とモデルによって異なります。
👍