대규모 언어 모델(LLM)의 환각 현상(사실과 다르거나 근거가 없는 그럴듯한 출력)을 이해하고, 측정하고, 완화하기 위한 수학적 기반 프레임워크를 제시한다. 확률 모델링, 정보 이론, 삼각 신호 분석, 베이시안 불확실성 추정을 활용하여 오류가 자기 회귀적으로 복합되는 방식을 분석하고, 의미론적, 위상 인지 변형을 포함한 개선된 불확실성 메트릭을 제안하며, 대비 디코딩, 검색 증강 기반 구축, 사실 정렬 및 기권과 같은 원칙적인 완화 전략을 개발한다. 이 통합적인 관점은 안전하고 신뢰할 수 있는 LLM을 지원하기 위해 보정, 검색, 정렬 분야의 최근 발전을 연결한다.