Cet article présente une méthode automatisée de mesure du niveau de sensibilisation à la sécurité de l'information (ISA) des assistants basés sur des modèles de langage à grande échelle (LLM). ISA englobe non seulement les connaissances en sécurité des LLM abordées dans des recherches antérieures, mais aussi les attitudes et comportements essentiels à la compréhension du contexte de sécurité implicite et au rejet des requêtes non sécurisées, à l'aide de 30 taxonomies ISA mobiles. À l'aide de scénarios réels pour explorer la tension entre les risques de sécurité implicites et la satisfaction des utilisateurs, nous évaluons les niveaux ISA des principaux LLM. Nous constatons que la plupart des modèles présentent des niveaux ISA moyens ou faibles. En particulier, les variantes plus petites au sein d'une même famille de modèles sont encore plus dangereuses, et l'absence d'améliorations ISA cohérentes dans les versions récentes suggère que les fournisseurs ne s'attaquent pas activement à ce problème. Cela démontre la vulnérabilité généralisée des déploiements LLM actuels, ce qui implique que la plupart des modèles populaires, y compris les variantes plus petites, exposent systématiquement les utilisateurs à des risques. Cet article propose une stratégie d'atténuation pratique qui intègre des directives de sensibilisation à la sécurité dans les invites du système de modélisation afin d'aider les LLM à mieux détecter et rejeter les requêtes non sécurisées.