每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

表格上的边界:针对结构化数据的有效黑盒决策攻击

Created by
  • Haebom

作者

Roie Kazoom、Yuval Ratzabi、Etamar Rothstein、Ofer Hadar

大纲

本文探讨了结构化数据中的对抗鲁棒性,与视觉和语言领域相比,该领域尚未得到充分探索。为此,我们提出了一种新颖的黑盒、基于决策的针对挖掘数据的对抗攻击方法。该攻击结合无梯度方向估计和迭代边界搜索,以最小的预言机访问量高效地探索离散和连续特征空间。大量实验表明,该方法成功地攻陷了各种模型(从经典机器学习分类器到基于大规模语言模型 (LLM) 的流程)上的几乎整个测试集。值得注意的是,该攻击在每个实例仅需少量查询的情况下,始终保持超过 90% 的成功率。这些结果凸显了挖掘模型在对抗扰动面前的严重脆弱性,并强调了现实世界决策系统中对更稳健防御的迫切需求。

Takeaways, Limitations

Takeaways:
我们证明表格数据模型容易受到对抗性攻击。
所提出的黑盒攻击方法在各种模型中都取得了较高的成功率。
这提出了采取额外防御措施以确保实际决策系统稳健性的必要性。
Limitations:
本文中没有明确提及具体攻击 Limitations。
其中没有涉及防御方法的讨论。
👍