대규모 언어 모델(LLM)은 발전에도 불구하고 여전히 환각 현상을 보인다. 이 논문은 이전에 간과되었던, 훈련 데이터 내의 특성(예: 성)과 속성(예: 국적) 간의 통계적으로 두드러진 연관성인 '잘못된 상관관계'에 의해 발생하는 환각 현상에 주목한다. 이러한 잘못된 상관관계는 모델 확장에도 영향을 받지 않고, 현재의 탐지 방법을 회피하며, 거부 미세 조정 후에도 지속되는 환각을 유발한다. GPT-5를 포함한 최첨단 LLM에 대한 실험을 통해, 신뢰도 기반 필터링 및 내부 상태 탐지와 같은 기존 환각 감지 방법이 잘못된 상관관계의 존재 하에서 근본적으로 실패함을 보여준다.