Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Diagnosing Memorization in Chain-of-Thought Reasoning, One Token at a Time

Created by
  • Haebom

作者

Huihan Li, You Chen, Siyuan Wang, Yixin He, Ninareh Mehrabi, Rahul Gupta, Xiang Ren

概要

この論文では、大規模言語モデル(LLM)が推論ベンチマークでは良好なパフォーマンスを示していますが、入力がわずかに変更されても頻繁に失敗する現象について説明します。特に、事故連鎖(CoT)推論では、誤った記憶パターンが中間エラーを引き起こし、最終的な答えが間違っている可能性があることを指摘しています。これを解決するために、この論文は新しいフレームワークであるSTIMを提示します。 STIMは、推論プロセスの各トークンを事前訓練コーパスでの統計的共同発生に基づいて、ローカル、ミッドレンジ、長距離などの複数の記憶源の1つに割り当てて、記憶の源泉を特定することに焦点を当てています。さまざまなタスクと分布の設定のトークンレベル分析により、複雑または長い尾の場合、モデルは記憶にもっと依存し、ローカル記憶がエラーの主な原因(最大67%の誤ったトークン)であることを明らかにします。また、STIMの記憶スコアを使用して、誤った推論ステップの誤ったトークンを予測できることを示しています。 STIMはモデル推論を診断および改善するための強力なツールであり、他の構造化された段階的作成タスクに一般化することができます。

Takeaways、Limitations

Takeaways:
LLMの推論エラーの原因をトークンレベルで分析する新しいフレームワーク(STIM)の提示。
LLMが複雑またはまれな場合、記憶にもっと依存し、ローカル記憶がエラーの主な原因であることを明らかにします。
STIMを用いて誤った推論段階の誤差を予測可能。
他の構造化された段階的作成タスクにも適用可能。
Limitations:
STIMのパフォーマンス評価は、特定のベンチマークとデータセットに限定することができます。
記憶の定義と測定方法のさらなる研究が必要になるかもしれません。
すべてのタイプの推論エラーを完全に捉えることができない可能性があります。
👍