Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Improving Score Reliability of Multiple Choice Benchmarks with Consistency Evaluation and Altered Answer Choices

Created by
  • Haebom
Category
Empty

저자

Paulo Cavalin, Cassia Sanctos, Marcelo Grave, Claudio Pinhanez, Yago Primerano

개요

본 논문은 다지선다형 벤치마크에서 대규모 언어 모델(LLM)의 신뢰도를 향상시키는 Consistency-Rebalanced Accuracy(CoRA) 메트릭을 제시합니다. CoRA는 변경된 답안 선택지를 가진 인공적으로 생성된 질문을 활용하여 LLM의 응답 일관성을 탐구합니다. Bare-Minimum-Consistency Accuracy(BMCA)와 Consistency Index(CI)의 두 가지 중간 점수를 사용하여 LLM의 일관성 수준을 더 잘 반영하도록 다지선다형 질문 응답(MCQA) 점수를 조정합니다. 다양한 LLM을 사용하여 여러 벤치마크에서 평가를 수행하며, 높은 MCQA 점수를 보이는 LLM도 낮은 응답 일관성을 가질 수 있으며, CoRA가 일관성 없는 모델의 점수를 성공적으로 낮출 수 있음을 입증합니다.

시사점, 한계점

시사점:
CoRA는 LLM의 다지선다형 벤치마크 점수의 신뢰성을 향상시킵니다.
LLM의 응답 일관성을 측정하는 새로운 메트릭을 제공합니다.
높은 MCQA 점수에도 불구하고 낮은 응답 일관성을 보이는 LLM의 문제점을 지적합니다.
일관성 없는 모델의 점수를 조정하여 더 정확한 성능 평가를 가능하게 합니다.
한계점:
논문에서 구체적인 한계점은 제시되지 않았습니다.
👍