本文旨在解决视频大型多模态模型 (VLMM) 面临的挑战。VLMM 在理解视频内容方面取得了显著进展,但在新信息出现时,其抽象推理和自适应推理能力难以修正其解释。为此,我们提出了可废止视频蕴涵 (DVidE),这是一项新颖的任务,需要模型主动思考,根据不断变化的证据更新推论。给定一个视频前提和一个文本假设,DVidE 要求模型判断新的更新是强化还是削弱了假设(分类版本),还是生成一个能够修改蕴涵关系的一致更新(生成版本)。为了解决分类任务,我们提出了反事实思维链框架,该框架利用反事实推理、基于自动语音识别 (ASR) 的视频内容和证据细化。对于生成任务,我们开发了一个框架,将 ASR 结果与大型语言模型 (LLM) 相结合,以生成与上下文相关且一致的更新,以满足强化或弱化目标。此外,我们引入了一个全新的基准数据集,该数据集配备了基于 LLM 的评估指标,旨在评估强化/弱化注释和生成性能。实验结果表明,该方法在增强 VLMM 动态推理能力方面取得了显著提升。