본 논문은 Chain-of-Thought (CoT) 추론을 효율적으로 수행하기 위한 방법론을 제시한다. 대규모 언어 모델(LLM)의 문제 해결 능력을 향상시키는 CoT 추론은 상당한 추론 오버헤드를 유발하여, 제한된 자원 환경에서의 배포를 어렵게 만든다. 본 연구는 적응형 추론 요약 프레임워크를 통해 다양한 규모와 아키텍처의 모델 간 효율적인 CoT 전송을 연구한다. 제안된 방법은 중요도 점수를 활용한 의미론적 분할, 예산 인식 동적 압축, 일관성 재구성을 통해 추론 추적을 압축하여 중요한 추론 단계를 유지하면서 토큰 사용량을 대폭 줄인다. 7,501개의 의료 시험 질문에 대한 실험 결과, 동일한 토큰 예산 하에서 최대 40% 더 높은 정확도를 보였고, 64개의 모델 쌍에 대한 평가를 통해 강력한 교차 모델 전송 능력을 확인했다. 또한, 가우시안 프로세스 기반 베이지안 최적화 모듈은 평가 비용을 84% 줄이고 모델 크기와 교차 도메인 견고성 간의 멱법칙 관계를 밝혀냈다.