본 논문은 대규모 언어 모델(LLM)의 논리적 추론 능력의 한계를 다룬다. LLM은 다양한 자연어 처리 과제에서 성공을 거두었지만, 복잡한 논리 문제 해결에는 어려움을 겪는다. 논문은 이러한 어려움을 두 가지 측면으로 분류한다: (1) 논리적 질문 응답에서 복잡한 연역, 귀납, 또는 추론을 요구하는 문제에 대한 정확한 답변 생성 실패, (2) 논리적 일관성 부족으로, 서로 다른 질문에 대해 모순되는 응답을 생성하는 문제. 논문에서는 최신 연구 방법들을 종합적으로 조사하고, 외부 솔버, 프롬프트, 사전 훈련, 미세 조정 등을 기준으로 분류한다. 또한 함축, 부정, 전이성, 사실 일관성 등 다양한 논리적 일관성 개념과 해결책을 논의하고, 벤치마크 데이터셋과 평가 지표를 검토하며, 불확실성을 고려한 모달 논리 확장 및 여러 논리적 일관성을 동시에 만족하는 효율적인 알고리즘 등 유망한 연구 방향을 제시한다.