본 논문은 대규모 언어 모델(LLM)이 장기간의 대화에서 겪는 문맥 드리프트 현상을 연구하고, 이를 이해하기 위한 동적 프레임워크를 제시한다. 문맥 드리프트를 테스트 모델과 목표 일관성을 유지하는 참조 모델 간의 토큰 수준 예측 분포의 KL 발산으로 정의하고, 복원력과 제어 가능한 개입을 갖는 경계가 있는 확률적 과정으로 해석하는 재귀 모델을 제안한다. 합성 데이터와 $\tau$-Bench와 같은 현실적인 시뮬레이션을 사용하여 실험을 수행하여, 문맥 드리프트가 걷잡을 수 없는 성능 저하가 아닌, 제어 가능한 평형 현상임을 밝힌다.