본 논문은 대규모 언어 모델(LLM)의 추론 능력을 향상시키기 위해, 기존의 테스트 시점 스케일링 방법의 문제점을 해결하고자 Atom of Thoughts (\our)를 제안합니다. \our는 복잡한 추론을 독립적이고 자기 완결적인 하위 질문으로 분해하여 해결하며, 각 하위 질문은 마르코프 프로세스와 유사한 메모리리스 속성을 가집니다. \our는 질문을 의존성 기반의 방향 비순환 그래프로 분해하고 하위 질문을 수축하는 과정을 반복하여, 원래 문제와 동등한 답을 유지하는 단순화된 질문을 생성합니다. 이러한 분해-수축 과정을 통해 마르코프 추론 프로세스를 형성하고, 기존의 테스트 시점 스케일링 방법에 플러그인 형태로 통합하여 추론 능력을 향상시킵니다. 6개의 벤치마크 실험 결과, \our는 단독 프레임워크 및 플러그인으로 모두 효과적임을 입증했으며, 특히 HotpotQA에서 gpt-4o-mini 모델에 적용 시 80.6%의 F1 점수를 기록하여, o3-mini보다 3.4%, DeepSeek-R1보다 10.6% 높은 성능을 보였습니다.