본 논문은 자연어 추론(NLI)에서 자연어 설명의 중요성을 강조하며, 대규모 언어 모델(LLM)과 정리 증명기(TP)의 상호작용을 통해 NLI 설명의 타당성을 검증하고 개선하는 연구에 대해 다룹니다. LLM이 자연어를 기계적으로 검증 가능한 형식적 표현으로 변환하는 과정에서 의미 정보 손실 및 부정확한 해석의 위험이 존재하고, LLM 자체가 엄밀하고 강력한 증명 구성에 제한이 있다는 점을 지적합니다. 이를 해결하기 위해, 본 논문은 자동 형식화 과정에서의 의미 손실 완화, 논리적 표현에서의 구문 오류 식별 및 수정, 구조화된 증명 개요 생성을 위한 논리적 표현의 명시적 활용, TP의 피드백을 활용한 반복적 개선을 위한 LLM의 해석 능력 향상 등 네 가지 전략을 제시합니다. e-SNLI, QASC, WorldTree 데이터셋을 사용한 실험 결과, 제안된 전략이 자동 형식화(+18.46%, +34.2%, +39.77%) 및 설명 개선(+29.5%, +51.5%, +41.25%)에서 최첨단 모델 대비 상당한 성능 향상을 보였음을 보여줍니다. 또한, 하이브리드 LLM-TP 아키텍처에 대한 특정 개입이 효율성을 크게 향상시켜 성공적인 검증에 필요한 반복 횟수를 대폭 줄일 수 있음을 보여줍니다.