Cet article propose un mécanisme de défense appelé PromptKeeper pour répondre aux problèmes de sécurité liés aux invites système qui guident la sortie des modèles de langage à grande échelle (LLM). Les invites système contiennent souvent de la logique métier et des informations sensibles, ce qui les rend vulnérables à l'exploitation des vulnérabilités des LLM par des requêtes malveillantes ou courantes. PromptKeeper répond à deux défis majeurs : détecter de manière fiable les fuites d'invites et atténuer les vulnérabilités des canaux auxiliaires en cas de fuite. En considérant la détection des fuites comme un problème de test d'hypothèses, il identifie efficacement les fuites explicites et subtiles. Lorsqu'une fuite est détectée, il régénère les réponses à l'aide d'invites factices, les rendant indiscernables des interactions normales sans fuite. Par conséquent, il offre une protection robuste contre les attaques par extraction d'invites via des requêtes malveillantes ou courantes, tout en préservant les capacités conversationnelles et l'efficacité d'exécution des interactions utilisateur classiques.