Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Attribution basée sur l'intégration (LEA) : quantification des contributions de la source à la réponse du modèle génératif pour l'analyse de la vulnérabilité

Created by
  • Haebom

Auteur

Reza Fayyazi, Michael Zuzak, Shanchieh Jay Yang

Contour

Cet article aborde les problèmes de fiabilité et de sécurité des modèles linguistiques à grande échelle (LLM), de plus en plus utilisés dans l'analyse des menaces de cybersécurité. Avec plus de 21 000 vulnérabilités révélées rien qu'en 2025, l'analyse manuelle est impossible, et un support IA évolutif et vérifiable est crucial. Les LLM peinent à traiter les vulnérabilités émergentes en raison des limites de leurs données d'entraînement. La génération augmentée par récupération (RAG) peut atténuer ces limites en fournissant des informations à jour, mais on ignore encore dans quelle mesure les LLM s'appuient sur les informations récupérées et si celles-ci sont pertinentes et exactes. Cette incertitude peut induire en erreur les analystes de sécurité, entraînant une priorisation incorrecte des correctifs et une augmentation des risques de sécurité. Par conséquent, cet article propose l'attribution basée sur l'intégration des LLM (LEA) pour analyser les réponses générées en vue de l'analyse de l'exploitation des vulnérabilités. L'LEA quantifie les contributions relatives des connaissances internes et du contenu récupéré dans la réponse générée. À l'aide de trois LLM de pointe, nous avons évalué LEA dans trois configurations RAG (valide, générique et incorrecte) par rapport à 500 vulnérabilités critiques révélées entre 2016 et 2025. Les résultats démontrent que LEA peut détecter des différences nettes entre les scénarios de non-découverte, génériques et de découverte valide avec une précision de plus de 95 % sur un modèle à grande échelle. Enfin, nous démontrons les limites de la récupération d'informations de vulnérabilité erronées et mettons en garde la communauté de la cybersécurité contre une confiance aveugle dans LLM et RAG pour l'analyse des vulnérabilités. LEA fournit aux analystes de sécurité des indicateurs pour auditer le flux de travail RAG amélioré, améliorant ainsi le déploiement transparent et fiable de l'IA dans l'analyse des menaces de cybersécurité.

Takeaways, Limitations

Takeaways:
L'attribution basée sur l'intégration LLM (LEA) présente une méthode permettant d'augmenter la fiabilité en analysant quantitativement la contribution des connaissances internes et des informations récupérées dans les réponses LLM basées sur RAG.
Nous validons expérimentalement le RAG avec une précision élevée de plus de 95 % et démontrons qu'il peut détecter la récupération d'informations erronées.
Fournit des lignes directrices pratiques pour un déploiement transparent et fiable de l’IA dans l’analyse des menaces de cybersécurité.
Limitations:
Il est impossible d’éliminer complètement la possibilité d’erreurs dues à une récupération d’informations incorrecte.
Des recherches supplémentaires sont nécessaires pour déterminer la généralisabilité de l’ensemble de données de vulnérabilité de 500 utilisé dans l’évaluation.
Des recherches supplémentaires sont nécessaires sur les performances de généralisation de LEA à divers systèmes LLM et RAG.
👍