Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

La sensibilisation à la sécurité de l'information des grands modèles linguistiques

Created by
  • Haebom

Auteur

Ofir Cohen, Gil Ari Agmon, Asaf Shabtai, Rami Puzis

Contour

Cet article présente une méthode automatisée de mesure du niveau de sensibilisation à la sécurité de l'information (ISA) des assistants basés sur des modèles de langage à grande échelle (LLM). ISA englobe non seulement les connaissances en sécurité des LLM abordées dans des recherches antérieures, mais aussi les attitudes et comportements essentiels à la compréhension du contexte de sécurité implicite et au rejet des requêtes non sécurisées, à l'aide de 30 taxonomies ISA mobiles. À l'aide de scénarios réels pour explorer la tension entre les risques de sécurité implicites et la satisfaction des utilisateurs, nous évaluons les niveaux ISA des principaux LLM. Nous constatons que la plupart des modèles présentent des niveaux ISA moyens ou faibles. En particulier, les variantes plus petites au sein d'une même famille de modèles sont encore plus dangereuses, et l'absence d'améliorations ISA cohérentes dans les versions récentes suggère que les fournisseurs ne s'attaquent pas activement à ce problème. Cela démontre la vulnérabilité généralisée des déploiements LLM actuels, ce qui implique que la plupart des modèles populaires, y compris les variantes plus petites, exposent systématiquement les utilisateurs à des risques. Cet article propose une stratégie d'atténuation pratique qui intègre des directives de sensibilisation à la sécurité dans les invites du système de modélisation afin d'aider les LLM à mieux détecter et rejeter les requêtes non sécurisées.

Takeaways, Limitations_

Takeaways:
Nous avertissons les utilisateurs des risques de cybersécurité en révélant que le niveau de sensibilisation à la sécurité de l'information (ISA) des assistants basés sur LLM est généralement faible.
Cela montre que les variantes plus petites du LLM peuvent présenter un risque plus élevé.
Il souligne que les fournisseurs de LLM ne font pas d’efforts actifs pour améliorer l’ISA.
Nous présentons une approche d’atténuation pratique qui intègre des conseils de sécurité dans les invites du système modèle.
Limitations:
Des recherches supplémentaires sont nécessaires pour déterminer la généralisabilité de la méthode de mesure ISA présentée dans cet article.
Une analyse plus approfondie de l’impact de l’ISA sur diverses architectures LLM et données de formation est nécessaire.
Des recherches empiriques sont nécessaires pour évaluer l’efficacité des mesures d’atténuation proposées.
👍