Cet article aborde les problèmes de fiabilité et de sécurité des modèles linguistiques à grande échelle (LLM), de plus en plus utilisés dans l'analyse des menaces de cybersécurité. Avec plus de 21 000 vulnérabilités révélées rien qu'en 2025, l'analyse manuelle est impossible, et un support IA évolutif et vérifiable est crucial. Les LLM peinent à traiter les vulnérabilités émergentes en raison des limites de leurs données d'entraînement. La génération augmentée par récupération (RAG) peut atténuer ces limites en fournissant des informations à jour, mais on ignore encore dans quelle mesure les LLM s'appuient sur les informations récupérées et si celles-ci sont pertinentes et exactes. Cette incertitude peut induire en erreur les analystes de sécurité, entraînant une priorisation incorrecte des correctifs et une augmentation des risques de sécurité. Par conséquent, cet article propose l'attribution basée sur l'intégration des LLM (LEA) pour analyser les réponses générées en vue de l'analyse de l'exploitation des vulnérabilités. L'LEA quantifie les contributions relatives des connaissances internes et du contenu récupéré dans la réponse générée. À l'aide de trois LLM de pointe, nous avons évalué LEA dans trois configurations RAG (valide, générique et incorrecte) par rapport à 500 vulnérabilités critiques révélées entre 2016 et 2025. Les résultats démontrent que LEA peut détecter des différences nettes entre les scénarios de non-découverte, génériques et de découverte valide avec une précision de plus de 95 % sur un modèle à grande échelle. Enfin, nous démontrons les limites de la récupération d'informations de vulnérabilité erronées et mettons en garde la communauté de la cybersécurité contre une confiance aveugle dans LLM et RAG pour l'analyse des vulnérabilités. LEA fournit aux analystes de sécurité des indicateurs pour auditer le flux de travail RAG amélioré, améliorant ainsi le déploiement transparent et fiable de l'IA dans l'analyse des menaces de cybersécurité.