本文探讨了大规模语言模型 (LLM) 可能被包含特定样式(例如,列表形式)的恶意查询触发这一问题。现有的越狱研究主要集中在为这些查询添加额外的字符串转换,以最大化攻击成功率 (ASR)。本研究探讨了与原始查询的恶意意图在语义上无关的样式模式对 LLM 安全性的影响。我们定义了 ASR 膨胀(由于现有越狱基准查询中的样式模式导致的 ASR 增加),并评估了 7 个基准测试中的 32 个 LLM,发现几乎所有模型都存在 ASR 膨胀现象。此外,我们证明了 LLM 对样式模式的相对兴趣与膨胀相关,并且样式一致性使 LLM 更容易受到特定样式越狱的攻击。最后,我们提出了 SafeStyle,这是一种防御策略,它结合了少量经过增强以匹配样式模式分布的安全训练数据。 SafeStyle 在三个 LLM、六个微调风格设置和两个真实世界教学训练数据集中,在维持 LLM 安全性方面始终优于基线模型。