# Justified or Just Convincing? Error Verifiability as a Dimension of LLM Quality

### 저자

Xiaoyuan Zhu, Kimberly Le Truong, Riccardo Fogliato, Gokul Swamy, Weijian Zhang, Minglai Yang, Longtian Ye, Bangya Liu, Minghao Liu, Andrew Ilyas, Steven Wu

### 💡 개요

본 논문은 대규모 언어 모델(LLM) 응답의 정확성을 사용자가 판단하는 데 중요한 '오류 검증 가능성'이라는 새로운 품질 차원을 제안합니다. 이 차원을 측정하기 위해 제안된 $v_{\text{bal}}$ 지표는 모델이 생성한 설명(추론 과정 등)이 사용자가 정답과 오답을 정확히 구별하도록 돕는지 평가합니다. 연구 결과, 기존의 모델 개선 방법으로는 오류 검증 가능성이 향상되지 않으며, 수학적 추론에는 reflect-and-rephrase(RR), 사실 기반 QA에는 oracle-rephrase(OR)와 같이 도메인 특화된 외부 정보를 활용하는 방법이 효과적임을 밝혔습니다.

### 🔑 시사점 및 한계

- LLM 응답의 품질을 평가할 때, 단순히 답변의 정확성뿐만 아니라 사용자가 오류를 검증할 수 있는 능력(오류 검증 가능성)이 중요한 별도의 차원임을 강조합니다.

- 기존의 모델 훈련 및 스케일링 방식으로는 오류 검증 가능성을 효과적으로 개선하기 어렵다는 것을 보여주며, 도메인별 특화된 방법론의 필요성을 제시합니다.

- 본 연구에서 제안된 RR 및 OR 방법론은 특정 도메인(수학, 사실 QA)에서 오류 검증 가능성을 향상시키는 데 성공했지만, 다른 도메인으로의 일반화 가능성과 실제 LLM 시스템에 통합하는 방법에 대한 추가적인 연구가 필요합니다.

[PDF 보기](https://arxiv.org/pdf/2604.04418)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
