本論文は、拡散モデル(Diffusion Models, DMs)のテキスト反転(Textual Inversion, TI)技術に対する中毒攻撃(Poisoning Attacks)を体系的に分析します。まず、中毒攻撃がテキスト埋め込みに与える影響を視覚化する新しい方法であるセマンティック感度マップ(Semantic Sensitivity Maps)を提示します。次に、DMsは時間ステップに応じて不均一な学習行動を示し、特に低ノイズサンプルに集中していることを確認し、実験的に検証します。中毒攻撃はこれらの偏向を引き起こし、主に低時間段階で敵対的な信号を注入します。最後に、敵対的な信号が学習過程で関連概念領域から学習を妨害し、TIプロセスを損なうことを観察する。これらの洞察に基づいて、この論文は3つの主要コンポーネント(1. JPEG圧縮による高周波毒信号の弱体化、2.低時間ステップの敵対的な信号を避けるための高時間ステップ制限、3.関連領域の学習制限のための損失マスキング)で構成される新しい防御メカニズムである安全ゾーントレーニング(Safe-Zone Training、SZT)。さまざまな中毒攻撃方法の広範な実験は、SZTがすべての中毒攻撃に対するTIの堅牢性を大幅に向上させ、以前に発表された防御よりも生成品質を向上させることを示しています。