Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Do not Abstain! Identify and Solve the Uncertainty

Created by
  • Haebom

저자

Jingyu Liu, Jingquan Peng, xiaopeng Wu, Xubin Li, Tiezheng Ge, Bo Zheng, Yong Liu

개요

본 논문은 대규모 언어 모델(LLM)이 불확실한 상황에서 과도한 자신감을 보이는 문제를 해결하기 위해, 불확실성의 근원을 인식하고 해결하는 LLM의 능력을 체계적으로 조사하고 개선하는 것을 목표로 한다. 이를 위해 세 가지 유형의 불확실성(문서 부족, 제한된 기능, 질의 모호성)에 초점을 맞춘 벤치마크인 ConfuseBench를 제시한다. ConfuseBench를 이용한 실험 결과, 기존 LLM은 불확실성의 근본 원인을 정확하게 파악하고 해결하는 데 어려움을 겪으며, 특히 성능이 낮은 모델일수록 질의 모호성에 불확실성을 돌리는 경향이 있다는 것을 보여준다. 이 문제를 해결하기 위해, 혼란스러운 측면을 강조하는 문맥 인식 질의를 생성하고, 질의 답변의 고유성을 기반으로 불확실성의 근원을 판단하는 방법과 강화 학습 기반의 on-policy 훈련 방법인 InteractDPO를 사용하여 더 나은 질의를 생성하는 방법을 제시한다. 실험 결과는 제안된 접근 방식의 효과를 보여준다.

시사점, 한계점

시사점:
LLM의 불확실성 처리 능력 향상을 위한 새로운 벤치마크(ConfuseBench) 제시
불확실성의 근원을 효과적으로 식별하고 해결하는 새로운 방법 제안 (문맥 인식 질의 생성, 질의 답변의 고유성 기반 판단, InteractDPO)
LLM의 과도한 자신감 문제 해결에 기여
LLM의 성능 향상 및 신뢰도 증진에 대한 새로운 방향 제시
한계점:
ConfuseBench의 불확실성 유형이 제한적일 수 있음 (문서 부족, 제한된 기능, 질의 모호성 세 가지 유형에 국한)
제안된 방법의 일반화 성능에 대한 추가적인 검증 필요
InteractDPO를 포함한 제안된 방법의 계산 비용 및 효율성에 대한 분석 필요
👍