본 논문은 주장의 출처 문서에 대한 신뢰성 판단 문제를 다룹니다. 기존의 이진 분류 방식(지지/비지지)의 한계를 지적하며, 모호한 주장에 대한 객관적인 평가의 어려움을 강조합니다. 이에, 대규모 언어 모델(LLM)을 이용하여 요약문을 수정하는 방식을 제안합니다. 요약문의 수정 정도를 측정하는 "모호성 재작성 지표(ARM)"를 통해 주장의 신뢰성을 보다 정교하게 평가할 수 있음을 보입니다. 특히, 모호성과 주관적 해석이 빈번한 서사 요약 분야에 초점을 맞춰, ARM이 평가자 간의 일치도를 21% 향상시킨다는 것을 실험적으로 입증합니다.