Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Cadre basé sur un modèle de langage volumineux pour la détection explicable des cyberattaques dans les systèmes de contrôle de génération automatique

Created by
  • Haebom

Auteur

Muhammad Sharshar, Ahmad Mohammad Saber, Davor Svetinovic, Amr M. Youssef, Deepa Kundur, Ehab F. El-Saadany

Contour

Cet article propose un cadre hybride qui intègre la détection d'attaques légère basée sur l'apprentissage automatique (ML) et les explications en langage naturel basées sur un modèle de langage à grande échelle (LLM) pour traiter les vulnérabilités de cybersécurité telles que les attaques par injection de données falsifiées (FDIA) ciblant les systèmes de contrôle automatique de la production (AGC) dans les réseaux intelligents. Un classificateur, LightGBM, atteint une précision de détection d'attaque allant jusqu'à 95,13 % avec une latence d'inférence de 0,004 seconde. Une fois une cyberattaque détectée, un LLM, tel que GPT-3.5 Turbo, GPT-4 Turbo ou GPT-4o mini, est invoqué pour générer une explication lisible par l'homme de l'événement. Les résultats de l'évaluation montrent que GPT-4o mini, utilisant une invite de 20 coups, atteint une précision d'identification de cible de 93 %, une erreur absolue moyenne de 0,075 pu dans l'estimation de l'ampleur de l'attaque et une erreur absolue moyenne de 2,19 secondes dans l'estimation du début de l'attaque, équilibrant efficacement la détection en temps réel avec des explications interprétables et précises. Cela répond au besoin critique d’une IA exploitable dans la cybersécurité des réseaux intelligents.

Takeaways, Limitations

Takeaways:
Nous démontrons que la combinaison de la détection d'attaques en temps réel à l'aide de modèles ML légers avec une IA explicable à l'aide de LLM peut améliorer la fiabilité et la praticité de la cybersécurité des réseaux intelligents.
La détection des attaques en temps réel est possible avec une grande précision (95,13 %) et une faible latence (0,004 seconde).
LLM peut aider l’opérateur à prendre des décisions en décrivant avec précision la cible de l’attaque, son échelle et son heure d’occurrence.
Limitations:
La précision descriptive du LLM n'est pas parfaite (il existe une erreur absolue moyenne) et des techniques d'ingénierie LLM ou rapides encore améliorées peuvent être nécessaires.
Une validation plus poussée de l’application du cadre proposé aux environnements réels de réseaux intelligents est nécessaire.
Il est possible que l’utilisation de LLM augmente les coûts de calcul et la latence.
Des évaluations supplémentaires des performances de généralisation contre divers types d’attaques FDIA sont nécessaires.
👍