每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

VisualTrap:通过操纵视觉接地对 GUI 代理进行隐秘后门攻击

Created by
  • Haebom

作者

叶子昂、张阳、施文涛、尤晓宇、冯富丽、蔡达成

大纲

基于大规模视觉语言模型 (LVLM) 的图形用户界面 (GUI) 代理已成为一种创新方法,可用于自主操作个人设备或应用程序执行复杂的实际任务。然而,它们与个人设备的紧密集成带来了诸多威胁,包括后门攻击,而这些威胁在很大程度上仍未被探索。本研究表明,GUI 代理中将文本计划映射到 GUI 元素的视觉基础存在漏洞,从而引发了一种新型的后门攻击。即使给定了精确的任务解决计划,针对视觉基础的后门攻击也可能破坏代理的行为。为了验证此漏洞,本研究提出了一种名为 VisualTrap 的方法,该方法通过诱骗代理在预期目标以外的触发位置查找文本计划来利用视觉基础。VisualTrap 使用一种常见的方法,即在攻击中注入毒数据,并通过在基于视觉的预训练期间执行此任务来确保攻击的可行性。实验结果表明,VisualTrap 仅需 5% 的中毒数据和高度隐蔽的视觉触发器(人眼不可见)即可有效利用基于视觉的攻击。即使经过仔细的微调,该攻击也可以推广到下游任务。此外,注入的触发器在各种 GUI 环境中均有效,包括在移动/Web 上进行训练并推广到桌面环境。这些结果凸显了进一步研究 GUI 代理后门攻击风险的必要性。

Takeaways,Limitations

Takeaways:通过揭示针对 GUI 代理可视化基础的后门攻击的可能性,并提出一种实用的攻击方法 VisualTrap,我们提高了人们对 GUI 代理安全及其漏洞重要性的认识。通过证明仅需 5% 的中毒数据和隐形触发器就可能引发攻击,我们强调了实际威胁的严重性。此外,我们还证明了该攻击的普遍性,表明其在各种环境中都有可能被利用。
Limitations: VisualTrap 目前仅关注视觉攻击,并未考虑其他攻击向量(例如语言模型本身的漏洞)。将测试结果推广到特定 GUI 环境的能力可能有限。未来需要对更广泛的 GUI 代理和环境进行进一步研究。此外,针对 VisualTrap 的防御机制开发研究仍然不足。
👍