대규모 언어 모델(LLM)의 최근 발전으로 사고 과정(CoT) 프롬프팅을 통해 강력한 추론 능력이 가능해졌지만, 중간 출력에서 과도한 상세 설명으로 인해 계산 오버헤드가 증가하는 문제가 있습니다. 본 논문에서는 인지적으로 영감을 받은 추론 패러다임과 언어적 제약 조건을 통합하여 토큰 사용량을 줄이면서 추론 정확도를 유지하는 프롬프팅 프레임워크인 Sketch-of-Thought(SoT)를 제안합니다. SoT는 유연하고 모듈식 접근 방식으로 설계되었으며, 개념적 연결, 청크 기호주의, 전문가 어휘라는 세 가지 패러다임을 통해 구현됩니다. 각 패러다임은 서로 다른 추론 작업에 맞게 조정되며, 경량 라우팅 모델에 의해 테스트 시점에 동적으로 선택됩니다. 여러 도메인, 언어 및 모드를 아우르는 15개의 추론 데이터 세트에서 SoT는 정확도 손실을 최소화하면서 최대 78%의 토큰 감소를 달성합니다. 수학적 추론 및 다단계 추론과 같은 작업에서는 출력을 단축하면서 정확도를 향상시키기도 합니다.