Cette page résume et organise les publications en intelligence artificielle du monde entier. Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif. Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.
Dominance en un coup : attaque par empoisonnement des connaissances sur les systèmes de génération augmentée par récupération
Created by
Haebom
Auteur
Zhiyuan Chang, Mingyang Li, Xiaojun Jia, Junjie Wang, Yuekai Huang, Ziyou Jiang, Yang Liu, Qing Wang
Contour
Cet article aborde les vulnérabilités de sécurité des modèles de langage à grande échelle (MLL) basés sur la génération augmentée de récupération (RAG), et plus particulièrement le risque d'attaques par contamination des connaissances contre des bases de connaissances externes accessibles au public et modifiables. Alors que les méthodes d'attaque existantes nécessitent plusieurs documents ou ne sont efficaces que contre des requêtes simples, cet article présente AuthChain, une méthode pratique d'attaque par contamination des connaissances efficace contre les requêtes complexes en plusieurs étapes en contaminant un seul document. AuthChain relève trois défis : garantir que les documents contaminés sont récupérés de manière fiable et approuvés par le LLM, malgré l'ampleur de la base de connaissances et les connaissances propres du LLM. Grâce à des expériences approfondies sur six LLM populaires, nous démontrons qu'AuthChain atteint des taux de réussite d'attaque nettement supérieurs et une furtivité supérieure à celle des modèles de référence de pointe existants.
Takeaways, Limitations_
•
Takeaways:
◦
Nous présentons la possibilité d'une attaque de contamination des connaissances efficace et furtive sur les systèmes RAG via la contamination d'un seul document.
◦
Proposition d'une technique AuthChain qui surmonte les limitations des méthodes d'attaque existantes.
◦
Valider l'efficacité d'AuthChain à travers des expérimentations sur différents LLM et bases de connaissances à grande échelle.
◦
Fournit des Takeaways importants pour améliorer la sécurité du système RAG.
•
Limitations:
◦
L'efficacité d'AuthChain est basée sur des résultats expérimentaux pour un LLM et une base de connaissances spécifiques, et peut donc ne pas être généralisée à d'autres environnements.
◦
Il se peut que cela ne reflète pas parfaitement les scénarios complexes du monde réel.
◦
Le développement et la recherche de techniques de défense pour AuthChain sont nécessaires.