본 논문은 대규모 언어 모델(LLM)의 출력물이 정확성이 의심스러운 경우에도 매우 자신감 있는 어조로 표현되는 문제점을 지적하며, 사용자에게 LLM의 신뢰도를 효과적으로 전달하는 방법에 대한 연구를 제안한다. 특히, 언어적 수단을 사용한 '언어화된 불확실성'에 주목하며, 기존 NLP 연구가 인간의 불확실성 표현의 미묘한 차이와 데이터 편향을 간과하고 있음을 지적한다. 인간의 의사소통 방식을 모방하는 '인간 모방적 불확실성'을 제시하고, 인간의 불확실성 표현에 대한 심층적인 분석과 함께, 인간-기계 간 불확실성 소통의 고유한 요소들을 지적하며 NLP 연구의 미래 방향을 제시한다.