본 논문은 대규모 언어 모델(LLMs)의 환각(hallucination) 문제를 해결하기 위해, 토큰의 신뢰도를 추정하는 새로운 프레임워크인 Logits-induced token uncertainty (LogTokU)를 제시합니다. 기존의 확률 기반 방법들이 훈련 단계에서 축적된 증거 강도 정보의 손실로 인해 토큰 신뢰도를 효과적으로 추정하지 못하는 한계를 지적하며, LogTokU는 증거 모델링을 활용하여 실시간으로 토큰 불확실성을 추정하고, 다중 샘플링 과정 없이 하류 작업을 안내할 수 있음을 보여줍니다. 실험 결과를 통해 LogTokU의 효과성과 가능성을 입증합니다.