본 논문은 고위험 AI 의사결정 상황에서 투명성을 보장하기 위해 충실한 자유 텍스트 설명이 중요하지만, 언어 모델이 이를 생성하고 사람이 평가하는 것은 어렵다는 문제를 다룹니다. 이에 논문에서는 증거의 가중치 개념을 확장하여 예측-설명(PEX) 일관성 측정 기준을 제시합니다. 이 측정 기준은 자유 텍스트 설명이 예측을 얼마나 지지하거나 반대하는지 정량화하여 설명의 충실성에 중요한 측면을 제시합니다. 분석 결과, 대규모 언어 모델이 생성한 설명의 62% 이상이 이러한 일관성이 부족한 것으로 나타났습니다. 직접적 선호도 최적화를 적용하면 세 가지 모델 계열에서 생성된 설명의 일관성이 43.1%~292.3% 향상됨을 보였으며, 이 일관성 측정 기준을 최적화하면 설명의 충실성을 최대 9.7%까지 향상시킬 수 있음을 보여줍니다.