每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

MLLMEraser:通过激活引导在多模态大型语言模型中实现测试时反学习

Created by
  • Haebom

作者

丁陈禄、吴建灿、盛乐恒、张帆、袁彦成、王翔、何向南

MLLMEraser:面向多模态大型语言模型的免训练知识擦除

大纲

本文提出了一个基于输入、无需训练、测试时的知识擦除框架 MLLMEraser,以解决多模态大规模语言模型 (MLLM) 中习得的个人信息、过时知识和有害内容等问题。该方法利用激活控制,无需参数更新即可动态擦除知识。MLLMEraser 使用对抗性操作的图像-文本对构建知识擦除方向,并设计了一种基于输入的操作机制来避免不必要的干扰。该机制在保留所保存知识有用性的同时,执行指定内容的擦除。在 LLaVA-1.5 和 Qwen-2.5-VL 模型上的实验结果表明,MLLMEraser 优于现有的 MLLM 知识擦除方法,计算成本更低,可用性损失最小。

Takeaways, Limitations

MLLM 提出了一种删除个人信息、过时知识和有害内容的新方法。
通过在测试时执行知识删除而不进行学习来降低计算成本。
通过激活操作和基于输入的操作机制提高知识删除性能。
通过在LLaVA-1.5和Qwen-2.5-VL模型上的实验证明了优异的性能。
与现有方法相比,实现了更低的计算成本和最小的可用性下降。
需要进一步研究来确定本文提出的 MLLMEraser 的通用性及其对各种 MLLM 模型的适用性。
需要进一步验证对抗操纵过程的有效性及其在现实环境中的稳健性。
👍