Cet article propose QGuard, une nouvelle technique de protection de sécurité pour prévenir l'exploitation malveillante des modèles linguistiques à grande échelle (LLM). QGuard est une méthode simple et efficace qui utilise l'invite de questions pour bloquer les invites malveillantes. Elle protège contre les attaques par invites malveillantes textuelles et multimodales, et, en diversifiant et en modifiant les questions, elle répond efficacement aux invites malveillantes modernes sans ajustement. Les résultats expérimentaux démontrent des performances compétitives sur les jeux de données malveillants textuels et multimodaux, et l'analyse de l'invite de questions permet une analyse en boîte blanche des saisies utilisateur. En conclusion, QGuard fournit des informations précieuses pour atténuer les risques de sécurité associés aux invites malveillantes dans les services LLM réels.