LLM은 수식어, 부정, 숫자, 예외, 명명된 개체와 같은 기호적 트리거에 직면했을 때 환각을 일으키는 경향이 있다. 이 논문은 LLM에서 환각이 발생하는 위치를 체계적으로 처리하고 국소화하기 위해 기호적 언어 지식을 활용하는 프레임워크를 제안한다. 연구는 HaluEval 및 TruthfulQA를 사용하여 5가지 모델을 분석하고, 기호적 트리거에 대한 주의 분산이 초기 레이어에서 불안정해지며 특히 부정 표현에서 심각한 수준에 도달함을 발견했다. 이러한 결과는 환각이 일반적인 생성 문제가 아닌 기호적 언어 처리 실패임을 보여준다.