본 논문은 대규모 언어 모델(LLM)의 수학적 추론 능력 향상을 위해 구조화된 자기 일관성(SC) 프레임워크를 제안합니다. 기존의 자기 일관성 접근 방식은 최종 답변 선택에만 초점을 맞춘 반면, 본 연구에서는 중간 추론 단계의 논리적 일관성까지 고려하여 자기 일관성을 강화합니다. 정리 증명, 기호 변환, 수치 계산 등 세 가지 핵심 수학적 과제에 대한 실험 결과, 제안된 방법이 증명의 유효성, 기호 추론 정확도, 수치 안정성을 크게 향상시키는 동시에 계산 효율성을 유지함을 보여줍니다. 더 나아가, 구조화된 자기 일관성은 문제 해결 정확도를 높일 뿐만 아니라 모델 생성 출력의 분산도 감소시키는 것을 확인했습니다. 이를 통해 자기 일관성이 LLM의 수학적 추론 향상을 위한 강력한 메커니즘임을 강조하고, 더욱 신뢰할 수 있고 해석 가능한 AI 기반 수학의 길을 열었습니다.