本文重点探讨了反学习技术在解决大规模语言模型 (LLM) 训练数据敏感信息泄露问题上的局限性。具体而言,在反学习前后逻辑函数接口 (API) 均暴露的真实部署环境中,我们提出了一种新颖的数据提取攻击方法,利用反学习前模型的信号,从反学习后模型的已删除数据中提取模式。该攻击结合了模型引导和词法单元过滤策略,显著提高了数据提取的成功率。我们通过一个医疗诊断数据集强调了反学习技术在真实世界中的风险。本研究表明,反学习实际上可能会增加个人信息泄露的风险,并建议根据更广泛的威胁模型(包括针对反学习前模型的对抗性方法)来评估反学习技术。