본 논문은 대규모 언어 모델(LLM)의 추론 성능 향상을 위한 새로운 프레임워크인 SOLAR(Scalable Optimization of Large-scale Architecture for Reasoning)을 제시한다. SOLAR는 Chain-of-Thought(CoT), Tree-of-Thought(ToT), Graph-of-Thought(GoT) 등 다양한 추론 토폴로지를 동적으로 최적화하여 정확도와 효율성을 높인다. 핵심 구성 요소로는 데이터셋 생성, 주석 및 난이도 분류를 자동화하는 Topological-Annotation-Generation(TAG) 시스템과 과정 학습 기반의 Topological-Scaling 기법이 있으며, 후자는 추론 스케일링과 사후 훈련을 각 과제에 적응적으로 결합한다. 또한, 최적의 추론 토폴로지와 최종 답변을 한 번에 선택하는 다중 작업 Topological Reward Model(M-TRM)을 제안하여 효율성을 더욱 향상시킨다. MATH 및 GSM8K 데이터셋에서 SOLAR은 상당한 성능 향상을 보였다.