본 논문은 기계 번역 결과물의 세부 오류 구간을 자동으로 식별하는 단어 수준 품질 평가(WQE)에 대해 다룬다. 기존의 WQE 기법들은 대규모 언어 모델 프롬프팅이나 대량의 수동 라벨링 데이터 학습이 필요하여 비용이 많이 들지만, 본 연구는 언어 모델 해석성 및 불확실성 정량화의 최근 발전을 활용하여 번역 모델의 내부 작동 방식에서 번역 오류를 식별하는 효율적인 대안을 조사한다. 12개 언어쌍에 걸쳐 14개 지표를 사용한 평가를 통해 다중 인간 라벨 집합을 이용하여 인간 라벨 변동이 지표 성능에 미치는 영향을 정량화한다.