Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Progent : Contrôle de privilèges programmable pour les agents LLM

Created by
  • Haebom

Auteur

Tianneng Shi, Jingxuan He, Zhun Wang, Hongwei Li, Linyu Wu, Wenbo Guo, Dawn Song

Contour

Cet article propose Progent, un nouveau framework pour répondre aux menaces de sécurité pesant sur les agents LLM (Large-Scale Language Model). Les agents LLM interagissent avec divers outils externes et effectuent des tâches utilisateur, mais sont vulnérables aux attaques telles que l'injection indirecte d'invites, la contamination de la mémoire/base de connaissances et les outils malveillants. Conscient que des permissions excessives sur les outils sont une cause majeure de réussite des attaques, Progent protège les agents en contrôlant les permissions au niveau de l'outil, en autorisant uniquement les appels d'outils nécessaires et en bloquant les appels malveillants. Il prend en charge des politiques de permissions fines, un comportement de secours en cas de blocage des appels et des mises à jour dynamiques des politiques via un langage DSL (langage spécifique au domaine). Il offre une sécurité vérifiable grâce à une exécution déterministe. Sa conception modulaire permet une implémentation sans modification interne de l'agent. Des évaluations utilisant des benchmarks tels qu'AgentDojo, ASB et AgentPoison montrent un taux de réussite des attaques de 0 % tout en préservant la convivialité et la rapidité de l'agent. De plus, nous démontrons que LLM peut générer automatiquement des politiques efficaces, ce qui suggère un potentiel d'automatisation de leur rédaction.

Takeaways, Limitations_

Takeaways:
Nous présentons Progent, un nouveau framework qui répond efficacement aux vulnérabilités de sécurité des agents LLM.
L'application sophistiquée des politiques de sécurité est possible grâce au contrôle des autorisations au niveau des outils.
Garanties de sécurité vérifiables avec exécution déterministe.
La conception modulaire nécessite des modifications minimales aux agents existants.
Présentation de la possibilité de génération automatique de politiques à l'aide de LLM.
Vérification des performances par des résultats expérimentaux utilisant divers benchmarks.
Limitations:
Des recherches supplémentaires sont nécessaires sur la complexité et la convivialité du DSL de Progent.
Une vérification de la compatibilité et de l’évolutivité pour différents types d’agents et d’outils LLM est requise.
Une évaluation de la stabilité à long terme et des performances dans des environnements réels est nécessaire.
Des recherches supplémentaires sont nécessaires pour déterminer la précision et la fiabilité de la génération automatique de politiques à l’aide de LLM.
👍