本論文は、非重要な知識集約を実行することができる任意の大規模言語モデル(LLM)が、真の(内部的に一貫した)知識表現、意味情報の保存、関連知識の完全な開示、および知識制約の最適性を同時に達成できないという根本的な不可能性の定理を提示します。この不可能性は、工学的限界ではなく、情報集約自体の数学的構造に由来する。分散コンポーネントが部分的な知識を活用して応答を形成するために競合するアイデアオークションで推論プロセスを説明することによって、この結果を確立します。証明は、メカニズム設計理論(Green-Laffont)、適切なスコアリング規則理論(Savage)、およびトランスの直接アーキテクチャ分析(Log-Sum-Exp凸性)の3つの独立した数学的領域にまたがっています。具体的には、厳密に凹状の設定では、様々な信念の集計スコアが個々のスコアの合計を厳しく超えていることを示しています。その違いは、不可逆的な確実性または過信の生成、すなわち幻覚と創造性または想像力の数学的起源を定量化することができます。この分析をサポートするために、一般的な設定での境界推論をモデル化するために、意味情報の測定と出現演算子の補完的な概念を導入します。警戒された推論は有用な洞察とインスピレーションを提供するアクセス可能な情報を生成しますが、理想的な推論は意味の内容を厳密に保存することを証明します。幻覚と想像力が情報保存の不可欠な違反に基づく数学的に同じ現象であることを示すことによって、この論文は高度なAIシステムでこれらの行動を管理するための原則的な基盤を提供します。最後に、提案された理論の評価と改善のためのいくつかの推測的なアイデアを提示します。