本文探讨了结构化数据中的对抗鲁棒性,与视觉和语言领域相比,该领域尚未得到充分探索。为此,我们提出了一种新颖的黑盒、基于决策的针对挖掘数据的对抗攻击方法。该攻击结合无梯度方向估计和迭代边界搜索,以最小的预言机访问量高效地探索离散和连续特征空间。大量实验表明,该方法成功地攻陷了各种模型(从经典机器学习分类器到基于大规模语言模型 (LLM) 的流程)上的几乎整个测试集。值得注意的是,该攻击在每个实例仅需少量查询的情况下,始终保持超过 90% 的成功率。这些结果凸显了挖掘模型在对抗扰动面前的严重脆弱性,并强调了现实世界决策系统中对更稳健防御的迫切需求。