본 논문은 대규모 언어 모델(LLM)의 신뢰성과 신뢰도에 대한 우려를 다룹니다. 특히, LLM이 사실과 다른 응답(hallucination)을 자신감 있게 생성하는 경향에 초점을 맞춥니다. 논문은 LLM의 불확실성을 정량화하는 기존 방법들을 광범위하게 검토하고, 이러한 방법들의 특징, 강점, 약점을 분석합니다. 다양한 방법들을 체계적으로 분류하고, 챗봇, 텍스트 애플리케이션, 로보틱스 분야의 응용 사례를 제시합니다. 마지막으로, LLM의 불확실성 정량화에 대한 향후 연구 과제를 제시합니다.