Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

GENUINE: Graph Enhanced Multi-level Uncertainty Estimation for Large Language Models

Created by
  • Haebom

저자

Tuo Wang, Adithya Kulkarni, Tyler Cody, Peter A. Beling, Yujun Yan, Dawei Zhou

개요

본 논문은 대규모 언어 모델(LLM)의 신뢰성 향상을 위해 불확실성 추정의 중요성을 강조하며, 기존 방법들의 한계점인 토큰 단위 확률 측정에 따른 의미적 의존성 간과 문제를 해결하고자 제안된 GENUINE(Graph ENhanced mUlti-level uncertaINty Estimation) 프레임워크를 소개합니다. GENUINE은 의존성 구문 분석 트리와 계층적 그래프 풀링을 활용하여 구조 인식 불확실성 정량화를 수행하며, 지도 학습을 통해 의미적 및 구조적 관계를 효과적으로 모델링하여 신뢰도 평가를 향상시킵니다. 다양한 NLP 작업에 대한 실험 결과, GENUINE은 기존 의미 엔트로피 기반 접근 방식보다 최대 29% 높은 AUROC를 달성하고 보정 오류를 15% 이상 줄이는 등 그래프 기반 불확실성 모델링의 효과를 입증합니다. 소스 코드는 https://github.com/ODYSSEYWT/GUQ 에서 확인 가능합니다.

시사점, 한계점

시사점:
그래프 기반 불확실성 모델링을 통해 LLM의 신뢰성을 향상시킬 수 있음을 보여줍니다.
기존 토큰 단위 접근 방식보다 더 정확하고 보정된 불확실성 추정이 가능함을 실험적으로 증명합니다.
의미적 및 구조적 관계를 고려하여 더욱 정교한 불확실성 측정이 가능합니다.
다양한 NLP 작업에 적용 가능한 일반적인 프레임워크를 제공합니다.
한계점:
제안된 방법의 성능 향상이 특정 데이터셋이나 작업에 국한될 가능성이 있습니다.
계산 비용이 기존 방법보다 높을 수 있습니다.
의존성 구문 분석 트리의 정확성에 결과가 영향을 받을 수 있습니다.
다양한 유형의 LLM에 대한 일반화 성능에 대한 추가적인 연구가 필요합니다.
👍