Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

OMNISEC : Détection d'intrusion basée sur la provenance et pilotée par LLM via des invites de comportement augmentées par récupération

Created by
  • Haebom

Auteur

Wenrui Cheng, Tiantian Zhua, Shunan Jing, Jian-Ping Mei, Mingjun Ma, Jiaobo Jin, Zhengqiu Weng

Contour

Dans cet article, nous proposons un nouveau système de détection d'intrusion, OMNISEC, qui utilise un modèle de langage à grande échelle (LLM) pour surmonter le __T539__ des systèmes de détection d'intrusion basés sur la provenance (PIDS) existants. Les PIDS existants, basés sur des règles et basés sur l'apprentissage, présentent respectivement des difficultés de modélisation dynamique des règles, un manque d'échantillons d'attaque et un nombre excessif de faux positifs. OMNISEC applique le LLM et la génération augmentée de récupération (RAG) au système basé sur la détection d'anomalies pour construire des nœuds suspects et des chemins rares, et utilise une base de connaissances externe pour déterminer si le comportement anormal est une attaque réelle. Par conséquent, il reconstruit le graphe d'attaque pour restaurer l'intégralité du processus du comportement d'attaque. Les résultats expérimentaux montrent qu'OMNISEC surpasse les méthodes de pointe existantes.

Takeaways, Limitations

Takeaways:
Nous avons amélioré le problème des faux positifs des systèmes de détection d’anomalies existants en utilisant LLM et RAG.
Il peut reconstruire efficacement l’ensemble du processus d’une attaque, réduisant ainsi le temps d’analyse.
Il surpasse les méthodes de pointe existantes sur les ensembles de données de référence publics.
Limitations:
Les performances du système proposé peuvent dépendre de la qualité du LLM et de la base de connaissances externe utilisée.
Des recherches supplémentaires sont nécessaires sur l’adaptabilité aux nouveaux types d’attaques.
Une évaluation des performances et une validation de l’évolutivité dans des environnements réels sont nécessaires.
👍