本文提出了一个基于输入、无需训练、测试时的知识擦除框架 MLLMEraser,以解决多模态大规模语言模型 (MLLM) 中习得的个人信息、过时知识和有害内容等问题。该方法利用激活控制,无需参数更新即可动态擦除知识。MLLMEraser 使用对抗性操作的图像-文本对构建知识擦除方向,并设计了一种基于输入的操作机制来避免不必要的干扰。该机制在保留所保存知识有用性的同时,执行指定内容的擦除。在 LLaVA-1.5 和 Qwen-2.5-VL 模型上的实验结果表明,MLLMEraser 优于现有的 MLLM 知识擦除方法,计算成本更低,可用性损失最小。