Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

The Unified Cognitive Consciousness Theory for Language Models: Anchoring Semantics, Thresholds of Activation, and Emergent Reasoning

Created by
  • Haebom

作者

Edward Y. Chang, Zeyneb N. Kaya, Ethan Chang

概要

統合認知意識理論(UCCT)は、大規模言語モデル(LLM)の知能をモデル内に存在するのではなく、膨大な無意識のパターンリポジトリと見なします。推論は、外部固定メカニズム(few-shot prompts、retrieval-augmented context、fine-tuning、またはマルチエージェント議論など)がジョブ関連パターンをアクティブにした場合にのみ発生します。 UCCTは、このコースを、事前訓練で学習された統計的事前確率とコンテキストベースの目標パターンとの間のベイズ競争で定式化し、既存の適応技術を統合する単一の定量的説明を提供します。 3つの原則(しきい値超過、モダリティ普遍性、密度-距離予測力)に基づいており、テキストQA、画像キャプション生成、マルチエージェント論争などのクロスドメインデモと数字ベースの研究(8、9、10進数)、階層別パス分析などの深層実験を通じて検証します。実験結果は、しきい値挙動、非対称干渉、メモリヒステリシスを確認することによってUCCTの予測を支援します。 LLMの「インテリジェンス」がモデル内にあるのではなく、セマンティック固定によって生成されることを示すことによって、UCCTは解析可能な診断とプロンプトエンジニアリング、モデルの選択、およびアライメント中心のシステム設計に関する実用的なガイドラインを提供します。

Takeaways、Limitations

Takeaways:
LLMの知能に関する新しい理論的枠組み(UCCT)の提示
プロンプトエンジニアリング、モデル選択、アライメント中心システム設計に関する実用的なガイダンスを提供
LLMの解析可能性の向上に貢献
既存の適応技術を統合する単一の定量的説明を提供
様々な実験による理論検証
Limitations:
UCCTの一般性と適用範囲に関するさらなる研究が必要
提示された実験の範囲が制限される可能性がある
より複雑なLLMアーキテクチャの適用性検証が必要
実際のアプリケーションでの性能評価の追加が必要
👍