본 논문은 기존 LLM의 '빠른 사고' 방식 대신, 인간의 사고 과정에 가까운 '느린 사고' 방식에 착안하여 Chain-of-Associated-Thoughts (CoAT) 프레임워크를 제안합니다. CoAT는 Monte Carlo Tree Search (MCTS) 알고리즘과 '연관 기억'이라 불리는 새로운 핵심 정보 통합 메커니즘을 결합하여 LLM의 탐색 공간을 크게 확장합니다. MCTS의 구조적 탐색 능력과 연관 기억의 적응적 학습 능력을 통해 다양한 추론 경로를 탐색하고 실시간으로 지식 베이스를 동적으로 업데이트합니다. 이를 통해 이전 추론을 재검토하고 개선할 뿐만 아니라 진화하는 정보를 적응적으로 통합하여 정확하고 종합적인 최종 결과를 생성합니다. HotpotQA, MuSiQue와 같은 오픈소스 다단계 추론 데이터셋과 독자적인 CRB 데이터셋에서 10% 이상(오픈소스 데이터셋) 및 15% 이상(CRB 데이터셋)의 성능 향상을 달성했습니다.