Este artículo analiza las causas de errores de inferencia en Modelos de Lenguaje de Razonamiento Grande (RLLM) entrenados con la estrategia Cadena de Pensamiento (CoT). Aplicamos el problema de coloración de grafos, un problema de lógica de satisfacción de restricciones de complejidad variable, a los modelos o1-mini, o3-mini, DeepSeek-R1, Claude 3.7 Sonnet, Gemini 2.5 Pro Preview y Grok 3 Mini Beta. Observamos que un número significativo de errores en todos los modelos se debe a alucinaciones de aristas de grafos no especificadas explícitamente en la instrucción. Este fenómeno de alucinación persiste independientemente de la complejidad del problema y del marco semántico, y confirmamos que se generaliza a experimentos a pequeña escala sobre problemas de emparejamiento estable. Este estudio identifica un problema en el que los RLLM tergiversan las características del problema y propone una estrategia de diseño para mitigarlo.