Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

TokUR: Token-Level Uncertainty Estimation for Large Language Model Reasoning

Created by
  • Haebom

저자

Tunyu Zhang, Haizhou Shi, Yibin Wang, Hengyi Wang, Xiaoxiao He, Zhuowei Li, Haoxian Chen, Ligong Han, Kai Xu, Huan Zhang, Dimitris Metaxas, Hao Wang

개요

본 논문은 대규모 언어 모델(LLM)의 수학적 추론 능력의 일관성 부족 문제를 해결하기 위해 토큰 단위 불확실성 추정 프레임워크인 TokUR을 제안한다. TokUR은 저차원 랜덤 가중치 섭동을 LLM 디코딩에 적용하여 예측 분포를 생성하고, 이를 통해 토큰 단위 불확실성을 추정한다. 추정된 토큰 단위 불확실성을 집계하여 생성된 시퀀스의 의미적 불확실성을 반영하고, 이를 통해 답변의 정확성과 모델의 강건성을 평가한다. 다양한 난이도의 수학적 추론 데이터셋을 사용한 실험 결과, 제안된 방법이 기존의 불확실성 추정 방법보다 우수하며, 불확실성을 이용하여 다중 생성 및 입자 필터링 알고리즘을 통해 모델의 추론 성능을 향상시킬 수 있음을 보여준다.

시사점, 한계점

시사점:
LLM의 추론 과정에서 토큰 단위 불확실성을 정확하게 추정하는 새로운 방법 제시.
불확실성 추정을 통해 LLM의 답변 정확성과 강건성을 향상시킬 수 있음을 증명.
불확실성 기반의 다중 생성 및 입자 필터링 알고리즘을 활용하여 LLM의 추론 성능 향상 가능성 제시.
LLM의 신뢰성 있는 응답을 얻기 위한 효과적인 평가 및 개선 방법을 제공.
한계점:
제안된 방법의 효과는 특정 수학적 추론 데이터셋에 국한될 수 있음.
다른 유형의 문제 또는 복잡한 추론 과제에 대한 일반화 성능에 대한 추가 연구 필요.
저차원 랜덤 가중치 섭동의 최적 매개변수 설정에 대한 추가 연구 필요.
실제 응용 분야에서의 적용 가능성 및 효율성에 대한 추가 검증 필요.
👍