Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

A Head to Predict and a Head to Question: Pre-trained Uncertainty Quantification Heads for Hallucination Detection in LLM Outputs

Created by
  • Haebom

저자

Artem Shelmanov, Ekaterina Fadeeva, Akim Tsvigun, Ivan Tsvigun, Zhuohan Xie, Igor Kiselev, Nico Daheim, Caiqi Zhang, Artem Vazhentsev, Mrinmaya Sachan, Preslav Nakov, Timothy Baldwin

개요

본 논문은 대규모 언어 모델(LLM)의 환각(hallucination) 문제, 즉 허위 정보 생성 문제를 해결하기 위해 사전 훈련된 불확실성 정량화(UQ) 헤드를 제안한다. UQ 헤드는 LLM에 추가되는 보조 모듈로, LLM의 어텐션 맵으로부터 얻은 정보를 활용하여 불확실성을 포착하는 능력을 크게 향상시킨다. 실험 결과, 이 헤드는 도메인 내외의 프롬프트에 대해 최첨단의 주장 수준 환각 탐지 성능을 달성하며, 훈련되지 않은 언어로도 강력한 일반화 능력을 보여준다. Mistral, Llama, Gemma 2 등 인기 LLM 시리즈에 대한 UQ 헤드를 사전 훈련하고, 코드와 사전 훈련된 헤드를 공개한다.

시사점, 한계점

시사점:
LLM의 환각 문제 해결에 효과적인 새로운 방법 제시
기존의 비지도 학습 방식보다 우수한 성능을 보이는 UQ 방법 제시
다양한 LLM에 적용 가능하며, 언어 간 일반화 성능이 우수함
코드와 사전 훈련된 모델 공개를 통해 연구의 재현성 및 활용성 증대
한계점:
본 논문에서 제시된 UQ 헤드의 성능은 특정 LLM 시리즈와 데이터셋에 대한 실험 결과에 기반하므로, 다른 LLM이나 데이터셋에 대한 일반화 성능은 추가적인 연구가 필요함.
환각 탐지 성능 평가에 사용된 지표 및 데이터셋의 한계는 고려되어야 함.
UQ 헤드의 계산 비용 및 LLM 성능 저하에 대한 추가적인 분석 필요.
👍