Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Marco basado en modelos de lenguaje amplio para la detección explicable de ciberataques en sistemas de control de generación automática

Created by
  • Haebom

Autor

Muhammad Sharshar, Ahmad Mohammad Saber, Davor Svetinovic, Amr M. Youssef, Deepa Kundur, Ehab F. El-Saadany

Describir

Este documento propone un marco híbrido que integra la detección de ataques basada en aprendizaje automático (ML) ligero y explicaciones en lenguaje natural basadas en modelos de lenguaje a gran escala (LLM) para abordar vulnerabilidades de ciberseguridad como ataques de inyección de datos falsificados (FDIA) dirigidos a sistemas de control automático de generación (AGC) en redes inteligentes. Un clasificador, LightGBM, alcanza una precisión de detección de ataques de hasta el 95,13% con una latencia de inferencia de 0,004 segundos. Una vez detectado un ciberataque, se invoca un LLM, como GPT-3.5 Turbo, GPT-4 Turbo o GPT-4o mini, para generar una explicación legible del evento. Los resultados de la evaluación muestran que GPT-4o mini, utilizando 20 indicaciones de disparo, alcanza una precisión de identificación del objetivo del 93%, un error absoluto medio de 0,075 pu en la estimación de la magnitud del ataque y un error absoluto medio de 2,19 segundos en la estimación del inicio del ataque, equilibrando eficazmente la detección en tiempo real con explicaciones interpretables y precisas. Esto aborda la necesidad crítica de una IA procesable en la ciberseguridad de las redes inteligentes.

Takeaways, Limitations

Takeaways:
Demostramos que la combinación de la detección de ataques en tiempo real utilizando modelos ML livianos con IA explicable usando LLM puede mejorar la confiabilidad y la practicidad de la ciberseguridad de la red inteligente.
La detección de ataques en tiempo real es posible con alta precisión (95,13%) y baja latencia (0,004 segundos).
LLM puede respaldar la toma de decisiones del operador al describir con precisión el objetivo del ataque, la escala y el momento de ocurrencia.
Limitations:
La precisión descriptiva del LLM no es perfecta (hay un error absoluto medio) y podrían requerirse técnicas de LLM mejoradas o de ingeniería rápida.
Se requiere una mayor validación de la aplicación del marco propuesto a entornos de redes inteligentes reales.
Existe la posibilidad de que el uso de LLM aumente los costos computacionales y la latencia.
Se necesitan evaluaciones adicionales del desempeño de generalización contra varios tipos de ataques FDIA.
👍