자연어를 일차 논리(FOL)와 같은 형식 언어로 번역하는 것은 자동 추론, 허위 정보 추적 및 지식 검증과 같은 광범위한 응용 분야를 가진 NLP의 기본적인 과제입니다. 본 논문에서는 대규모 언어 모델(LLM)을 사용하여 자연어를 단계적으로 FOL로 자동 형식화하는 프레임워크인 NL2FOL을 소개합니다. 본 접근 방식은 암시적 배경 지식의 통합을 포함하여 이 번역 과정의 주요 과제를 해결합니다. NL2FOL에 의해 생성된 구조적 표현을 활용하여, 만족도 모듈 이론(SMT) 솔버를 사용하여 자연어 문장의 논리적 타당성에 대해 추론합니다. 논리적 오류 탐지를 사례 연구로 제시하여 NL2FOL의 효과를 평가합니다. 신경 기호적이기 때문에, 본 접근 방식은 추론 과정에 대한 해석 가능한 통찰력을 제공하고 모델 미세 조정이나 레이블이 지정된 훈련 데이터 없이도 강력함을 보여줍니다. 본 프레임워크는 여러 데이터 세트에서 강력한 성능을 달성합니다. LOGIC 데이터 세트에서 NL2FOL은 78%의 F1 점수를 달성하는 반면, LOGICCLIMATE 데이터 세트로 효과적으로 일반화하여 80%의 F1 점수를 달성합니다.