본 논문은 대규모 언어 모델(LLM)의 환각(hallucination) 문제를 해결하기 위해, 장문 생성에서의 불확실성 모델링에 초점을 맞춘 연구입니다. 기존 연구가 단문 질의응답에 집중한 것과 달리, 장문 응답이 필요한 실제 응용 사례를 고려하여 "장문 생성과 불확실성(LoGU)" 과제를 제시합니다. 모델이 불확실성을 표현하는 것을 주저하는 "불확실성 억압"과 불확실성을 부정확하게 전달하는 "불확실성 불일치"라는 두 가지 주요 과제를 식별하고, 이를 해결하기 위해 세분화 기반 데이터 수집 프레임워크와 2단계 학습 파이프라인을 제안합니다. 원자적 주장(atomic claim)에 기반한 불확실성 세분화 전략을 채택하고, 수집된 데이터를 이용하여 감독식 미세 조정(SFT) 및 직접적 선호도 최적화(DPO)를 통해 불확실성 표현을 향상시킵니다. 세 가지 장문 지시 따르기 데이터셋에 대한 광범위한 실험을 통해 제안된 방법이 정확도를 크게 향상시키고, 환각을 줄이며, 응답의 종합성을 유지한다는 것을 보여줍니다.