본 논문은 대규모 언어 모델의 사고 과정(CoT) 프롬프팅에서 발생하는 과도한 계산 비용 및 지연 문제를 해결하기 위해 적응형 GoGI-Skip 프레임워크를 제안한다. 기존 CoT 압축 기법의 한계인 일반적인 중요도 지표와 고정된 압축률을 극복하고자, 목표-경사도 중요도(GoGI) 지표와 적응형 동적 건너뛰기(ADS) 메커니즘을 제시한다. GoGI는 중간 표현의 최종 답변 손실에 대한 기울기 영향을 측정하여 기능적으로 관련된 토큰을 정확하게 식별하고, ADS는 런타임 모델의 불확실성에 따라 압축률을 동적으로 조절하며, 적응형 N-토큰 제약을 통해 국소적 일관성을 유지한다. MATH 데이터셋으로 학습된 Adaptive GoGI-Skip은 AIME, GPQA, GSM8K 등 다양한 추론 벤치마크에서 우수한 도메인 일반화 성능을 보이며, 평균 45% 이상의 CoT 토큰 수 감소와 1.6~2.0배의 추론 속도 향상을 달성하면서 높은 추론 정확도를 유지한다. 특히 높은 압축률에서도 정확도를 유지하며 기존 기법들을 능가하는 성능을 보인다.