본 논문은 재귀적 추론 모델의 훈련 비용을 줄이기 위해 제안된 CGAR이라는 새로운 훈련 방법론을 소개한다. CGAR은 Progressive Depth Curriculum과 Hierarchical Supervision Weighting의 두 가지 구성 요소를 활용하여, 훈련 과정에서 재귀 깊이를 동적으로 조정하고 손실 가중치를 제어한다. Sudoku-Extreme 데이터셋에서 CGAR은 기존 훈련 방식 대비 1.71배의 훈련 속도 향상과 0.63%의 정확도 감소를 보였으며, Progressive Depth Curriculum만으로도 2.26배의 속도 향상을 달성했다. 또한, CGAR로 훈련된 모델은 더 적은 추론 단계로 100%의 중단 정확도를 보였다.