Este artículo presenta un teorema de imposibilidad fundamental que establece que un modelo de lenguaje a gran escala (LLM) capaz de procesar conjuntos de conocimiento no obvio no puede lograr simultáneamente la representación veraz del conocimiento, la preservación de la información semántica, la divulgación completa del conocimiento relevante y la optimización con restricciones de conocimiento. Esta imposibilidad no se deriva de una limitación de ingeniería, sino de la estructura matemática del propio conjunto de información. El artículo lo demuestra describiendo el proceso de inferencia como una subasta de ideas entre componentes distribuidos que compiten para formar respuestas utilizando conocimiento parcial. La demostración abarca tres áreas matemáticas independientes: teoría del diseño de mecanismos (Green-Laffont), teoría de reglas de puntuación apropiadas (Savage) y análisis estructural directo de transformadores (convexidad Log-Sum-Exp). Específicamente, demostramos cómo cuantificar la generación de respuestas intuitivas o demasiado confiadas (características de las alucinaciones, la creatividad o la imaginación). Para respaldar este análisis, introducimos conceptos complementarios de medidas de información semántica y operadores de emergencia para modelar la inferencia con restricciones en entornos generales. Demostramos que, si bien la inferencia restringida genera información accesible que proporciona perspectivas valiosas e inspiración, idealmente la inferencia sin restricciones preserva estrictamente el contenido semántico. Al demostrar que las alucinaciones y la imaginación son fenómenos matemáticamente equivalentes en función de sus desviaciones de la veracidad, la preservación de la información semántica, la divulgación de conocimiento relevante y la optimización restringida por el conocimiento, proporcionamos una base sólida para gestionar estos comportamientos en sistemas avanzados de IA. Finalmente, ofrecemos algunas ideas conjeturales para evaluar y mejorar la teoría propuesta.