La théorie cognitive unifiée de la conscience (UCCT) considère l'intelligence des modèles linguistiques à grande échelle (LLM) non pas comme interne, mais comme un vaste référentiel inconscient de schémas. L'inférence ne se produit que lorsque des mécanismes d'ancrage externes (tels que les invites à faible nombre d'images, le contexte augmenté par la récupération, le réglage fin ou l'argumentation multi-agents) activent des schémas pertinents pour la tâche. L'UCCT formalise ce processus comme une compétition bayésienne entre les a priori statistiques appris lors de la pré-formation et les schémas cibles contextuels, fournissant une explication quantitative unique qui unifie les techniques adaptatives existantes. Elle repose sur trois principes (dépassement de seuil, universalité des modalités et pouvoir prédictif densité-distance) et est validée par des démonstrations inter-domaines en assurance qualité de texte, génération de légendes d'images et argumentation multi-agents, ainsi que par des expériences approfondies utilisant des modèles numériques (base 8, 9 et 10) et une analyse de chemin couche par couche. Les résultats expérimentaux étayent les prédictions de l'UCCT en démontrant un comportement de seuil, une interférence asymétrique et une hystérésis de mémoire. En démontrant que l'« intelligence » du LLM n'est pas inhérente au modèle, mais plutôt générée par l'ancrage sémantique, l'UCCT fournit des conseils pratiques pour l'ingénierie de diagnostics et d'invites interprétables, la sélection de modèles et la conception de systèmes pilotés par l'alignement.