대규모 언어 모델(LLM)이 chain-of-thought(CoT) 전략을 통해 추론 작업 성능을 향상시켰지만, 여전히 완벽하지 않다. 본 연구에서는 o1-mini, o3-mini, DeepSeek-R1, Claude 3.7 Sonnet, Gemini 2.5 Pro Preview, Grok 3 Mini Beta 모델을 사용하여 변수 복잡성 제약 만족 문제인 그래프 채색 문제를 테스트했다. 그 결과, RLLM이 프롬프트에 명시되지 않은 그래프 엣지를 환각하는 경향이 있음을 발견했다. 이러한 현상은 여러 문제 복잡도 수준과 의미 프레임에서 지속되었으며, 모든 테스트 모델의 부정확한 답변에서 상당 부분을 차지했다. 또한 입력 충돌 환각 현상의 일반화 가능성을 안정 매칭 문제에 대한 소규모 실험을 통해 검증했다.