자연어 추론 (NLI) 모델을 활용하여 LLM의 사실성을 향상시키는 연구. NLI 모델을 사용하여 모델의 출력이 증거로부터 함의되는지 판단하고, 빔 재순위 또는 RL 보상과 같은 수정 조치를 트리거합니다. 본 연구는 NLI 작업을 임의의 텍스트 접두사에 적용하도록 일반화하여 생성 충실도를 향상시키고, 이에 적합한 평가 및 훈련 데이터 세트를 제공합니다. MiniTruePrefixes라는 새로운 전문 모델을 훈련하여 텍스트 접두사에 대한 사실적 불일치를 더 잘 감지하며, 텍스트 접두사 수준에서 경쟁 NLI 모델보다 5-14 F1 포인트 향상을 보입니다. MiniTruePrefixes를 제어된 디코딩 프레임워크에 통합하여 추상적 요약의 사실적 일관성을 크게 향상시켰습니다. MiniTruePrefixes의 안내를 받은 LLaMA-3.2-3B-Instruct는 동일한 모델 제품군의 8B 모델의 충실도와 런타임을 일치시키면서 메모리는 절반만 사용합니다.