이미지 기반 시각-언어 모델(VLM)을 비디오에 적용하는 것은, 모델이 처리해야 할 시각 정보의 밀도와 시간적 확장성으로 인해 어려움이 있다. 본 논문은 이러한 문제 해결을 위해, 동적 압축(Dynamic Compression)과 질문 분해(Question Decomposition)를 활용하는 학습이 필요 없는 적응형 프레임워크인 D-CoDe를 제안한다. 동적 압축은 대표적인 프레임의 적응적 선택과 공간 토큰의 내용 기반 집계를 통해 인지 병목 현상을 완화하고, 질문 분해는 원본 질문을 하위 질문으로 재구성하여 토큰 과부하를 줄인다. D-CoDe는 다양한 벤치마크에서 비디오 이해 능력을 향상시켰으며, 특히 긴 비디오 벤치마크에서 뛰어난 성능을 보여 복잡한 비디오-언어 작업 처리 가능성을 입증했다.