본 논문은 대규모 언어 모델(LLM)이 불확실한 상황에서 과도한 자신감을 보이는 문제를 해결하기 위해, 불확실성의 근원을 인식하고 해결하는 LLM의 능력을 체계적으로 조사하고 개선하는 것을 목표로 한다. 이를 위해 세 가지 유형의 불확실성(문서 부족, 제한된 기능, 질의 모호성)에 초점을 맞춘 벤치마크인 ConfuseBench를 제시한다. ConfuseBench를 이용한 실험 결과, 기존 LLM은 불확실성의 근본 원인을 정확하게 파악하고 해결하는 데 어려움을 겪으며, 특히 성능이 낮은 모델일수록 질의 모호성에 불확실성을 돌리는 경향이 있다는 것을 보여준다. 이 문제를 해결하기 위해, 혼란스러운 측면을 강조하는 문맥 인식 질의를 생성하고, 질의 답변의 고유성을 기반으로 불확실성의 근원을 판단하는 방법과 강화 학습 기반의 on-policy 훈련 방법인 InteractDPO를 사용하여 더 나은 질의를 생성하는 방법을 제시한다. 실험 결과는 제안된 접근 방식의 효과를 보여준다.