Cet article propose un cadre hybride qui intègre la détection d'attaques légère basée sur l'apprentissage automatique (ML) et les explications en langage naturel basées sur un modèle de langage à grande échelle (LLM) pour traiter les vulnérabilités de cybersécurité telles que les attaques par injection de données falsifiées (FDIA) ciblant les systèmes de contrôle automatique de la production (AGC) dans les réseaux intelligents. Un classificateur, LightGBM, atteint une précision de détection d'attaque allant jusqu'à 95,13 % avec une latence d'inférence de 0,004 seconde. Une fois une cyberattaque détectée, un LLM, tel que GPT-3.5 Turbo, GPT-4 Turbo ou GPT-4o mini, est invoqué pour générer une explication lisible par l'homme de l'événement. Les résultats de l'évaluation montrent que GPT-4o mini, utilisant une invite de 20 coups, atteint une précision d'identification de cible de 93 %, une erreur absolue moyenne de 0,075 pu dans l'estimation de l'ampleur de l'attaque et une erreur absolue moyenne de 2,19 secondes dans l'estimation du début de l'attaque, équilibrant efficacement la détection en temps réel avec des explications interprétables et précises. Cela répond au besoin critique d’une IA exploitable dans la cybersécurité des réseaux intelligents.