Cet article analyse les causes des erreurs d'inférence dans les modèles de raisonnement en langage large (RLLM) entraînés par la stratégie de la chaîne de pensée (CoT). Nous appliquons le problème de coloration de graphes, un problème logique de satisfaction de contraintes de complexité variable, aux modèles o1-mini, o3-mini, DeepSeek-R1, Claude 3.7 Sonnet, Gemini 2.5 Pro Preview et Grok 3 Mini Beta. Nous constatons qu'un nombre significatif d'erreurs dans tous les modèles proviennent d'arêtes de graphes hallucinantes non explicitement spécifiées dans l'invite. Ce phénomène d'hallucination persiste quels que soient la complexité du problème et le cadre sémantique, et nous confirmons qu'il se généralise aux expériences à petite échelle sur des problèmes d'appariement stables. Cette étude identifie un problème dans lequel les RLLM déforment les caractéristiques du problème et propose une stratégie de conception pour l'atténuer.