Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Estimating LLM Consistency: A User Baseline vs Surrogate Metrics

Created by
  • Haebom

저자

Xiaoyuan Wu, Weiran Lin, Omer Akgul, Lujo Bauer

개요

본 논문은 대규모 언어 모델(LLM)의 환각 및 프롬프트 변화에 대한 민감성으로 인해 발생하는 일관성 없는 또는 신뢰할 수 없는 텍스트 생성 문제를 다룬다. 기존의 LLM 응답 일관성 측정 방법들은 재표본 응답 풀 내에서 응답의 확률 또는 내부 상태나 로짓에 의존하지만, 인간의 인식과의 부합성이 부족했다. 본 연구는 2,976명의 참가자를 대상으로 한 사용자 연구를 통해 기존 방법의 한계를 밝히고, 로짓 기반 앙상블 방법을 제안하여 인간의 LLM 일관성 평가와의 부합성을 향상시켰다. 결과적으로 인간 평가 없이 LLM 일관성을 추정하는 방법의 불완전성을 지적하며, 인간 입력을 포함한 평가의 광범위한 활용을 제안한다.

시사점, 한계점

시사점: 로짓 기반 앙상블 방법이 기존 방법보다 인간의 LLM 일관성 평가와 더 잘 일치한다는 것을 보여줌으로써, LLM 일관성 측정의 정확도를 높일 수 있는 새로운 방법을 제시한다. 인간 평가의 중요성을 강조하여 LLM 평가의 신뢰성을 높이는 데 기여한다.
한계점: 사용자 연구의 참가자 수는 많지만, 참가자들의 배경이나 LLM에 대한 지식 수준 등의 다양성에 대한 자세한 설명이 부족할 수 있다. 제안된 로짓 기반 앙상블 방법의 일반화 성능에 대한 추가적인 연구가 필요하다. 인간 평가의 비용 및 시간 소모 문제를 고려했을 때, 인간 평가 없이도 높은 정확도를 가진 LLM 일관성 측정 방법 개발이 여전히 과제로 남는다.
👍