본 논문은 대규모 언어 모델(LLM)의 추론 능력 향상을 위한 새로운 테스트 시간 확장 방법인 Atom of Thoughts(AoT)를 제안한다. 기존 방법들의 한계점인 누적된 과거 정보로 인한 계산 자원 낭비 및 추론 효율 저하 문제를 해결하기 위해, 복잡한 추론 과정을 독립적이고 자기 포함적인 하위 질문(원자 질문)으로 분해하는 접근 방식을 취한다. AoT는 각 질문을 의존성 기반 방향성 비순환 그래프로 분해하고 하위 질문들을 축약하여 원래 문제와 동일한 답을 유지하는 단순화된 질문을 생성하는 반복적인 분해-축약 과정을 통해 마르코프 추론 과정을 형성한다. 이러한 원자 상태는 기존 테스트 시간 확장 방법과 원활하게 통합될 수 있으며, 플러그인 방식으로 추론 능력을 향상시킨다. 여섯 가지 벤치마크 실험 결과, AoT는 독립형 프레임워크 및 플러그인 향상 모두에서 효과적임을 보여주며, 특히 HotpotQA에서 gpt-4o-mini에 적용했을 때 80.6%의 F1 점수를 달성하여 o3-mini보다 3.4%, DeepSeek-R1보다 10.6% 높은 성능을 기록했다.