본 논문은 대규모 언어 모델(LLM)의 환각 문제 완화를 위한 자기 수정 접근법에서, 특히 수학적 추론 오류 식별에 초점을 맞추고 있습니다. 기존의 단순한 프롬프트 전략의 한계를 극복하기 위해, 교육 이론인 블룸의 인지 모델(BCM)에서 영감을 받은 새로운 프롬프트 전략인 Pedagogical Chain-of-Thought (PedCoT)를 제안합니다. PedCoT는 프롬프트 설계를 위한 교육적 원칙(PPP), 2단계 상호 작용 과정(TIP), 그리고 근거 기반 PedCoT 프롬프트로 구성됩니다. 다양한 난이도의 수학 문제 데이터셋을 사용한 실험 결과, 제안된 제로샷 프롬프팅 전략이 기존 방법보다 우수한 성능을 보이며, 자동 수학 답변 채점의 기반을 제공함을 보여줍니다. 이는 도메인 지식으로서의 교육 이론의 중요성을 강조합니다.