본 논문은 대규모 언어 모델(LLM)의 지식 집약적 과제 수행 시 발생하는 환각(hallucination) 문제를 해결하기 위해, 데카르트의 방법적 사고에서 영감을 받은 새로운 패러다임인 논리 증강 생성(LAG)을 제시합니다. LAG는 복잡한 질문을 논리적 의존성에 따라 순서대로 배열된 원자적 하위 질문으로 분해하고, 이를 순차적으로 해결하여 이전 답변을 활용하여 후속 하위 질문에 대한 맥락 검색을 안내합니다. 또한, 답변할 수 없는 하위 질문을 만나면 추론을 중단하는 논리적 종료 메커니즘을 통합하여 오류 전파를 방지하고 불필요한 계산을 줄입니다. 마지막으로, 모든 하위 해결책을 종합하여 검증된 응답을 생성합니다. 네 개의 벤치마크 데이터셋을 이용한 실험 결과, LAG는 추론의 견고성을 향상시키고 환각을 줄이며, LLM의 문제 해결 방식을 인간의 인지와 일치시킴을 보여줍니다. 기존 RAG 시스템에 대한 원칙적인 대안을 제시합니다.