본 논문은 대규모 언어 모델(LLM)의 환각 현상(hallucination)을 해결하기 위한 새로운 접근법인 HalluShift를 제시한다. LLM이 사실과 다른 정보를 생성하는 환각 현상은 응답의 일부분에서 미묘하게 시작하여 점진적으로 오류가 커지는 특징을 보이는데, 이는 인간의 인지 과정과 유사하다. HalluShift는 LLM 생성 응답의 내부 상태 공간과 토큰 확률 분포 변화를 분석하여 환각 현상을 탐지한다. 다양한 벤치마크 데이터셋에서 기존 방법보다 우수한 성능을 보이며, 코드는 깃허브에 공개되어 있다.