Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

GenBFA : une approche d'optimisation évolutive pour les attaques par retournement de bits sur les LLM

Created by
  • Haebom

Auteur

Sanjay Das, Swastik Bhattacharya, Souvik Kundu, Shamik Kundu, Anand Menon, Arnab Raha, Kanad Basu

Contour

Cet article aborde la vulnérabilité des modèles de langage à grande échelle (LLM) aux menaces matérielles, notamment aux attaques par retournement de bits (BFA). Alors que des études antérieures ont démontré que les architectures basées sur des transformateurs sont plus robustes face aux BFA, cet article montre que même quelques retournements de bits peuvent dégrader considérablement les performances des LLM. À cette fin, nous proposons AttentionBreaker, un nouveau framework qui explore efficacement l'espace des paramètres des LLM afin d'identifier les paramètres importants. De plus, nous présentons GenBFA, une stratégie d'optimisation évolutive qui identifie les bits les plus importants et améliore l'efficacité des attaques. Les résultats expérimentaux montrent que même quelques retournements de bits peuvent dégrader considérablement les performances des LLM. Par exemple, dans le modèle LLaMA3-8B-Instruct, la précision des tâches MMLU chute de 67,3 % à 0 %, et la perplexité du Wikitexte passe de 12,6 à 4,72 x 10^5 avec seulement trois retournements de bits. Cela met en évidence l’efficacité d’AttentionBreaker et la vulnérabilité des architectures LLM.

Takeaways, Limitations_

Takeaways:
Nous montrons que LLM est très vulnérable au BFA, et même un petit nombre de retournements de bits peut entraîner une dégradation catastrophique des performances.
AttentionBreaker et GenBFA présentent une nouvelle façon de trouver efficacement les paramètres importants de LLM et d'effectuer des attaques.
Nous présentons de nouvelles orientations de recherche pour améliorer la sécurité du LLM.
Sensibiliser aux menaces de sécurité du LLM dans des environnements réels.
Limitations:
La méthode actuellement proposée ne présente les résultats que pour une architecture LLM spécifique et des modèles quantifiés 8 bits. Des recherches supplémentaires sont nécessaires pour d'autres architectures ou précisions.
L’efficacité d’AttentionBreaker et de GenBFA peut varier en fonction de la taille du modèle, et leur applicabilité aux LLM à grande échelle doit être davantage vérifiée.
Il existe un manque de recherche sur les techniques défensives efficaces dans les environnements d’attaque réels.
Une analyse complète des différents vecteurs d’attaque et techniques défensives est nécessaire.
👍