본 논문은 대규모 언어 모델(LLM)이 불확실한 실제 환경에서 사실과 신뢰도를 평가하여 적절한 발화를 생성하는 데 어려움을 겪는다는 점을 지적한다. 특히, LLM이 불확실성을 표현하는 능력, 즉 인식태(epistemic modality)에 대한 언어적 지식을 통제된 이야기를 사용하여 평가한다. 실험 결과, LLM이 인식태 표현을 생성하는 성능은 제한적이고 안정적이지 않으며, 따라서 LLM이 생성하는 불확실성 표현이 항상 신뢰할 수 있는 것은 아님을 보여준다. 따라서 불확실성을 인식하는 LLM을 구축하려면 LLM의 인식태에 대한 의미론적 지식을 풍부하게 해야 한다는 결론을 제시한다.