본 논문은 Transformer 기반의 아키텍처 비효율성과 고난이도 영역에 대한 구조화된 미세 조정 부족이라는 두 가지 핵심 과제를 해결하는 주의 메커니즘이 없는 언어 모델인 \ourmodel을 제시합니다. Mamba-2의 상태 공간 이중(SSD) 계층을 기반으로 구축된 \ourmodel은 자기 주의와 키-값 캐싱이 필요 없어 고정 메모리, 일정 시간 추론을 가능하게 합니다. 복잡한 추론을 위해 추상적 개념 선택과 근거 기반 생성을 통해 교육적으로 구조화된 문제를 생성하는 \textsc{PromptCoT} 합성 패러다임을 기반으로 하는 2단계 커리큘럼 미세 조정 전략을 제안합니다. 벤치마크 평가에서 \ourmodel-7B는 유사한 규모의 강력한 Transformer 및 하이브리드 모델을 능가하고, AIME 24에서 Gemma3-27B보다 2.6%, AIME 25에서 0.6%, Livecodebench에서 3.0% 더 높은 성능을 보였습니다. 이러한 결과는 상태 공간 모델이 고용량 추론을 위한 주의 기반 아키텍처에 대한 효율적이고 확장 가능한 대안으로서의 잠재력을 강조합니다.