본 논문은 대규모 언어 모델(LLM)의 수학적 추론 능력 향상을 위한 구조적 자기일관성(SC) 프레임워크를 제시한다. 기존의 자기일관성 접근 방식은 최종 답변 선택에만 초점을 맞춘 반면, 본 논문에서는 중간 추론 단계의 논리적 일관성까지 고려하여 자기일관성을 강화한다. 정리 증명, 기호 변환, 수치 계산 등 세 가지 핵심 수학적 과제에 대한 실험 결과, 제안된 방법이 증명의 유효성, 기호 추론 정확도, 수치 안정성을 향상시키는 동시에 계산 효율성을 유지함을 보여준다. 더 나아가, 구조적 자기일관성은 문제 해결 정확도를 높일 뿐만 아니라 모델 출력의 분산도 감소시킨다는 것을 밝혔다. 이는 자기일관성이 LLM의 수학적 추론 향상을 위한 강력한 메커니즘임을 강조하며, 더욱 신뢰할 수 있고 해석 가능한 AI 기반 수학을 위한 길을 열어준다.