Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

TECP: Token-Entropy Conformal Prediction for LLMs

Created by
  • Haebom

저자

Beining Xu, Yongming Lu

개요

본 논문은 블랙박스 제약 하에서 열린 종단형 언어 생성에 대한 불확실성 정량화(UQ) 문제를 해결하기 위해 토큰 엔트로피를 활용한 새로운 프레임워크인 TECP(Token-Entropy Conformal Prediction)를 제안합니다. TECP는 로짓이나 참조 없이 토큰 수준의 엔트로피를 불확실성 척도로 사용하며, 분리된 준거 예측(CP) 파이프라인에 통합하여 공식적인 적용 범위 보장을 가진 예측 집합을 구성합니다. 기존의 의미적 일관성 휴리스틱이나 화이트박스 특징에 의존하는 방법과 달리, TECP는 샘플링된 생성물의 토큰 엔트로피 구조에서 직접 인식론적 불확실성을 추정하고, CP 분위수를 통해 불확실성 임계값을 보정하여 검증 가능한 오류 제어를 보장합니다. 여섯 개의 대규모 언어 모델과 두 개의 벤치마크(CoQA 및 TriviaQA)에 대한 실험적 평가는 TECP가 일관되게 신뢰할 수 있는 적용 범위와 컴팩트한 예측 집합을 달성하며, 이전의 자기 일관성 기반 UQ 방법을 능가함을 보여줍니다. 본 연구는 블랙박스 LLM 설정에서 신뢰할 수 있는 생성을 위한 원칙적이고 효율적인 해결책을 제공합니다.

시사점, 한계점

시사점:
블랙박스 LLM에서의 불확실성 정량화에 대한 새로운 접근 방식 제시.
로짓이나 참조 없이 토큰 엔트로피를 활용하여 효율적이고 원칙적인 불확실성 측정 가능.
준거 예측을 통해 검증 가능한 오류 제어 및 신뢰할 수 있는 적용 범위 보장.
기존 자기 일관성 기반 방법보다 우수한 성능을 보임.
한계점:
본 논문에서 제시된 방법의 일반화 성능에 대한 추가적인 연구 필요.
다양한 종류의 LLM 및 벤치마크에 대한 추가적인 실험이 필요할 수 있음.
토큰 엔트로피 이외의 다른 불확실성 척도와의 비교 분석 필요.
👍