본 논문은 대규모 언어 모델(LLM)을 이용한 논리적 오류 탐지의 새로운 프롬프트 구성 방법을 제시합니다. 기존의 방법들보다 향상된 성능을 보이는 이 방법은 감독 학습(fine-tuned) 및 비감독 학습(zero-shot) 환경 모두에서 적용 가능합니다. 이는 논증의 맥락 내에서 타당성을 확인하기 위해 반론, 설명, 목표 등의 암시적 문맥 정보를 입력 텍스트에 추가하여 질문을 생성하고, 이 질문들의 신뢰도 점수를 기반으로 논리적 오류를 분류합니다. GPT 및 LLaMA 계열 모델을 사용하여 5개 도메인의 여러 데이터셋(29가지 유형의 오류 포함)에서 평가한 결과, 기존 최고 성능 모델 대비 zero-shot 설정에서 최대 0.60, fine-tuned 모델에서 최대 0.45의 F1 점수 향상을 보였습니다. 상세 분석을 통해 본 방법의 우수성을 입증하였습니다.