Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Is Chain-of-Thought Reasoning of LLMs a Mirage? A Data Distribution Lens

작성자
  • Haebom

作者

Chengshuai Zhao, Zhen Tan, Pingchuan Ma, Dawei Li, Bohan Jiang, Yancheng Wang, Yingzhen Yang, Huan Liu

概要

本論文は、Chain-of-Thought(CoT)プロンプトによるLarge Language Model(LLM)の性能向上が行われる現象について、データ分布の観点から分析します。 CoT推論は、訓練データで学習された構造的帰納的偏向を反映して、訓練中に観察された推論経路を近似する条件付き生成を可能にするかどうかを調べます。この目的のために、LLMを最初から訓練し、さまざまな分布条件で体系的に調査する制御された環境であるDataAlchemyを設計し、課題、長さ、形式の3つの次元でCoT推論を分析します。研究の結果、CoT推論は、訓練分布から離れると消滅する脆弱な現象であることを明らかにし、真に一般化可能な推論を達成することの難しさを強調しています。

Takeaways、Limitations

Takeaways: CoT推論の限界をデータ分布の観点から明らかにすることで、LLMの推論能力のより深い理解を提供します。 CoTプロンプトの効果は、トレーニングデータとテストクエリの間の分布の不一致の程度によって根本的に制限されることを示唆しています。 DataAlchemyなどの制御された環境を介してLLMの推論メカニズムを体系的に分析する方法論を提示します。
Limitations: DataAlchemy環境は特定の条件下での実験結果に基づいているため、実際の複雑な環境での一般化の可能性に関するさらなる研究が必要です。分析対象は特定の次元(課題、長さ、形式)に限定されており、他の重要な要因の影響は考慮されていない可能性があります。 CoT推論の本質的な限界を完全に解明するには、さらなる研究が必要です。
👍