Este documento propone un marco híbrido que integra la detección de ataques basada en aprendizaje automático (ML) ligero y explicaciones en lenguaje natural basadas en modelos de lenguaje a gran escala (LLM) para abordar vulnerabilidades de ciberseguridad como ataques de inyección de datos falsificados (FDIA) dirigidos a sistemas de control automático de generación (AGC) en redes inteligentes. Un clasificador, LightGBM, alcanza una precisión de detección de ataques de hasta el 95,13% con una latencia de inferencia de 0,004 segundos. Una vez detectado un ciberataque, se invoca un LLM, como GPT-3.5 Turbo, GPT-4 Turbo o GPT-4o mini, para generar una explicación legible del evento. Los resultados de la evaluación muestran que GPT-4o mini, utilizando 20 indicaciones de disparo, alcanza una precisión de identificación del objetivo del 93%, un error absoluto medio de 0,075 pu en la estimación de la magnitud del ataque y un error absoluto medio de 2,19 segundos en la estimación del inicio del ataque, equilibrando eficazmente la detección en tiempo real con explicaciones interpretables y precisas. Esto aborda la necesidad crítica de una IA procesable en la ciberseguridad de las redes inteligentes.