본 논문은 대규모 언어 모델(LLM)의 논리적 추론 및 계획 능력의 한계를 극복하기 위해 제안된 새로운 접근 방식인 Differential Logic Layer-Aided Language Modeling (DiLA)에 대해 설명합니다. DiLA는 언어 모델이 논리적 제약 조건을 생성하고 초기 솔루션을 식별하도록 유도하며, 차등 논리 레이어가 LLM이 제시한 솔루션을 반복적으로 개선하는 방식으로 작동합니다. 이 접근 방식은 부울 만족 문제(SAT) 및 그래프 채색 문제(GCP)와 같은 고전적인 제약 만족 문제를 포함한 다양한 추론 문제에서 기존의 프롬프트 기반 및 솔버 지원 방식보다 우수한 성능을 보입니다.