본 논문은 CVRR-ES 데이터셋을 기준으로 복잡한 실제 시나리오에서 추론 깊이와 강건성을 향상시키는 개방형 비디오 질문 응답을 위한 새로운 프레임워크를 제안합니다. 기존의 Video-Large Multimodal Models (Video-LMMs)는 제한된 맥락 이해, 약한 시간적 모델링, 모호하거나 구성적인 질문에 대한 일반화능력 저하를 보입니다. 이러한 문제를 해결하기 위해, 본 논문에서는 서로 다른 추론 경로에 맞춰진 여러 이종 Video-Language Models (VLMs)을 구조화된 사고 연쇄를 통해 조정하는 프롬프팅 및 응답 통합 메커니즘을 제시합니다. 외부 Large Language Model (LLM)은 평가자이자 통합자 역할을 하며, 가장 신뢰할 수 있는 응답을 선택하고 융합합니다. 광범위한 실험을 통해 제안된 방법이 모든 평가 지표에서 기존 기준 모델을 상당히 능가하며, 우수한 일반화 및 강건성을 보여줌을 입증합니다. 본 연구의 접근 방식은 모델 재훈련 없이 다중 모드 추론을 발전시키는 경량의 확장 가능한 전략을 제공하며, 미래 Video-LMM 개발의 견고한 기반을 마련합니다.