[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Les grands modèles linguistiques ne sont pas fiables pour la cyber-renseignement sur les menaces

Created by
  • Haebom

Auteur

Emanuele Mezzi, Fabio Massacci, Katja Tuma

Contour

S'appuyant sur plusieurs études récentes suggérant que les modèles de langage à grande échelle (MLL) peuvent être utilisés pour faire face au déluge de données de cybersécurité et améliorer l'automatisation des tâches de cyber-renseignement (CTI), cet article présente une méthodologie d'évaluation permettant de tester les LLM sur des tâches de CTI, ainsi que de quantifier leur cohérence et leur niveau de confiance, en utilisant l'apprentissage à zéro coup, l'apprentissage à quelques coups et le réglage fin. À l'aide de trois LLM de pointe et d'un ensemble de données de 350 rapports de renseignement sur les menaces, nous menons des expériences et fournissons de nouvelles preuves des risques de sécurité potentiels liés à l'utilisation des LLM pour la CTI. Nous démontrons qu'ils ne sont pas suffisamment performants sur des rapports réels, sont incohérents et ont tendance à être trop confiants. L'apprentissage à quelques coups et le réglage fin n'améliorent que partiellement les résultats, ce qui remet en question la faisabilité de l'utilisation des LLM dans des scénarios de CTI où les ensembles de données étiquetés sont rares et la confiance est un facteur critique.

Takeaways, Limitations

Takeaways : Présenter une nouvelle méthodologie d'évaluation pour quantifier le niveau de cohérence et de fiabilité lors de l'application de LLM aux tâches CTI. Présenter les résultats expérimentaux montrant les risques de sécurité potentiels liés à l'application de LLM aux tâches CTI.
Limitations : Les performances du LLM sur les rapports en taille réelle sont insuffisantes, incohérentes et trop fiables. L'apprentissage par petites touches et le réglage fin ont des effets limités sur l'amélioration des performances. L'absence d'ensembles de données étiquetés soulève des questions quant à l'applicabilité du LLM à la CTI.
👍