본 논문은 대규모 언어 모델(LLM)의 환각(hallucination) 문제를 해결하기 위해 장문 생성에서의 불확실성 모델링을 제시합니다. 기존 연구가 단문 질의응답에 초점을 맞춘 것과 달리, 본 연구는 장문 생성에서의 불확실성 표현 과제(LoGU)를 새롭게 정의하고, '불확실성 억압'과 '불확실성 불일치'라는 두 가지 주요 과제를 제시합니다. 이를 해결하기 위해, 원자적 주장(atomic claim) 기반의 불확실성 개선 데이터 수집 프레임워크와 두 단계의 학습 파이프라인(지도 학습 미세 조정 및 직접 선호도 최적화)을 제안합니다. 세 가지 장문 지시 따르기 데이터셋에 대한 실험 결과, 제안된 방법이 정확도 향상, 환각 감소, 응답의 포괄성 유지를 동시에 달성함을 보여줍니다.