每日 Arxiv

本页面整理了世界各地发表的人工智能相关论文。
本页面使用 Google Gemini 汇总而成,并以非盈利为基础运营。
论文版权归作者及相关机构所有,分享时请注明出处。

暗黑蒸馏:无需访问原始数据即可对蒸馏数据集进行后门操作

Created by
  • Haebom

作者

杨子源、严明、张毅、周天一

大纲

本文首次揭示了数据集蒸馏 (DD) 中的安全漏洞。先前的研究主要关注数据所有者的恶意行为,而本文则关注一个更现实、更严重的威胁:攻击者在数据分发过程中向蒸馏数据集中注入后门。我们证明,攻击者无需访问原始数据集,即可通过重建蒸馏数据集中每个类的概念原型来注入后门。该方法利用混合损失函数将后门信息与原始优化路径相结合,从而在保留原始数据集信息的情况下插入后门。我们通过实验证明了蒸馏数据集在各种数据集、蒸馏方法和学习策略中都容易受到后门攻击,并证明了攻击的有效性。

Takeaways, Limitations

Takeaways:
我们首先发现了数据蒸馏(DD)中的一个安全漏洞,并提出了在数据分发过程中发生后门攻击的可能性。
我们开发了一种有效的攻击技术,可以在无需访问原始数据的情况下将后门注入到提取的数据集中。
我们通过实验证明了蒸馏数据集在各种数据集、蒸馏方法和学习策略中容易受到后门攻击。
它强调需要开发新的安全机制以确保数据蒸馏技术的安全使用。
Limitations:
本研究主要针对特定​​的后门攻击技术,其他类型攻击的漏洞需要进一步研究。
针对所提出的攻击技术的防御技术缺乏研究。
需要对真实世界的数据集和场景进行进一步验证。
👍