본 논문은 대규모 언어 모델(LLM)의 반복적 추론을 단일 모델 내에서 방향성 비순환 그래프(DAG)의 구성으로 모델링하는 사고의 다이어그램(DoT) 프레임워크를 제시합니다. 기존의 선형 사슬이나 트리 구조로 추론을 표현하는 접근 방식과 달리, DoT는 명제, 비판, 개선 및 검증을 통합된 DAG로 구성하여 논리적 일관성을 유지하면서 복잡한 추론 경로를 탐색할 수 있도록 합니다. 이 프레임워크에서 각 노드는 다양한 평가 단계의 명제를 캡슐화하여 자세한 자연어 피드백을 통해 반복적인 자기 개선을 용이하게 합니다. 역할별 토큰으로 증강된 자동 회귀 다음 토큰 예측을 활용하여 DoT는 아이디어 생성과 비판적 평가 참여 간에 원활하게 전환하여 이진 신호보다 풍부하고 맥락 인식 피드백을 제공합니다. 또한, 위상 이론을 통해 DoT에 대한 엄격한 수학적 기반을 확립하여 추론 과정의 건전성과 일관성을 보장합니다. 이 통합된 접근 방식은 여러 모델이나 외부 제어 메커니즘의 필요성을 없애 교육과 추론을 모두 단순화할 뿐만 아니라 차세대 추론 전문 모델 설계를 위한 원칙적인 프레임워크를 제공합니다.