本論文は、非自明な知識集合を実行することができる大規模言語モデル(LLM)が、真の知識表現、意味情報の保存、関連知識の完全な開示、および知識制約の最適化を同時に達成できないという根本的な不可能性の整理を提示します。この不可能性は、工学的な制限ではなく、情報セット自体の数学的構造によるものです。論文は、推論プロセスを部分的な知識を使用して応答を形成するために競合する分散コンポーネントのアイデアオークションとして描写することによってこれを証明します。証明は、メカニズム設計理論(Green-Laffont)、適切なスコアルール理論(Savage)、およびトランスの直接構造解析(Log-Sum-Exp凸性)の3つの独立した数学的領域にわたって行われます。具体的には、過度のまたは直感的な応答(幻覚と創造性または想像力の特徴)の生成を定量化する方法を示します。この分析をサポートするために、一般的な設定で制限された推論をモデル化するための意味情報の測定と出現演算子の補完的な概念を導入します。限られた推論は貴重な洞察とインスピレーションを提供するアクセス可能な情報を生成しますが、理想的な制約のない推論は意味の内容を厳密に保存することを証明します。幻覚と想像力が真実性、意味情報の保存、関連する知識の開示、および知識の制約の最適化から逸脱することに基づいて数学的に同じ現象であることを示すことで、高度なAIシステムでこれらの行動を管理するための原則的な基盤を提供します。最後に、提案された理論の評価と改善のためのいくつかの推測的なアイデアを提示します。