Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

LoGU: Long-form Generation with Uncertainty Expressions

Created by
  • Haebom

저자

Ruihan Yang, Caiqi Zhang, Zhisong Zhang, Xinting Huang, Sen Yang, Nigel Collier, Dong Yu, Deqing Yang

개요

본 논문은 대규모 언어 모델(LLM)의 환각(hallucination) 문제를 해결하기 위해, 장문 생성에서의 불확실성 모델링에 초점을 맞춘 연구입니다. 기존 연구가 단문 질의응답에 집중한 것과 달리, 장문 응답이 필요한 실제 응용 사례를 고려하여 "장문 생성과 불확실성(LoGU)" 과제를 제시합니다. 모델이 불확실성을 표현하는 것을 주저하는 "불확실성 억압"과 불확실성을 부정확하게 전달하는 "불확실성 불일치"라는 두 가지 주요 과제를 식별하고, 이를 해결하기 위해 세분화 기반 데이터 수집 프레임워크와 2단계 학습 파이프라인을 제안합니다. 원자적 주장(atomic claim)에 기반한 불확실성 세분화 전략을 채택하고, 수집된 데이터를 이용하여 감독식 미세 조정(SFT) 및 직접적 선호도 최적화(DPO)를 통해 불확실성 표현을 향상시킵니다. 세 가지 장문 지시 따르기 데이터셋에 대한 광범위한 실험을 통해 제안된 방법이 정확도를 크게 향상시키고, 환각을 줄이며, 응답의 종합성을 유지한다는 것을 보여줍니다.

시사점, 한계점

시사점:
장문 생성에서의 불확실성 모델링에 대한 새로운 접근 방식 제시
불확실성 억압 및 불확실성 불일치 문제 해결을 위한 효과적인 방법 제안
LLM의 환각 문제 완화 및 정확도 향상에 기여
SFT와 DPO를 결합한 효과적인 학습 전략 제시
한계점:
제안된 방법의 일반성 및 다양한 LLM과 데이터셋에 대한 적용성 추가 연구 필요
"원자적 주장"의 정의 및 식별에 대한 명확한 기준 제시 필요
실제 응용 분야에서의 성능 평가 및 검증 필요
불확실성 표현의 질적 평가 추가 필요 (단순 정량적 평가를 넘어)
👍