[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Los modelos de lenguaje grandes no son confiables para la inteligencia de amenazas cibernéticas

Created by
  • Haebom

Autor

Emanuele Mezzi, Fabio Massacci, Katja Tuma

Describir

Basándonos en varios estudios recientes que sugieren que los modelos de lenguaje a gran escala (LLM) pueden utilizarse para abordar la avalancha de datos de ciberseguridad y mejorar la automatización de las tareas de inteligencia sobre ciberamenazas (CTI), este documento presenta una metodología de evaluación que puede probar los LLM en tareas de CTI, así como cuantificar su consistencia y niveles de confianza, al utilizar el aprendizaje de cero disparos, el aprendizaje de pocos disparos y el ajuste fino. Utilizando tres LLM de última generación y un conjunto de datos de 350 informes de inteligencia de amenazas, realizamos experimentos y proporcionamos nueva evidencia sobre los posibles riesgos de seguridad del uso de LLM para CTI. Demostramos que no funcionan lo suficientemente bien en informes del mundo real, son inconsistentes y tienden a ser demasiado confiados. El aprendizaje de pocos disparos y el ajuste fino solo mejoran parcialmente los resultados, lo que cuestiona la viabilidad del uso de LLM en escenarios de CTI donde los conjuntos de datos etiquetados son escasos y la confianza es un factor crítico.

Takeaways, Limitations

Takeaways: Presentar una nueva metodología de evaluación para cuantificar el nivel de consistencia y fiabilidad al aplicar LLM a tareas de CTI. Presentar resultados experimentales que muestren posibles riesgos de seguridad al aplicar LLM a CTI.
Limitations: El rendimiento de LLM en informes de tamaño real es insuficiente, inconsistente y demasiado confiado. El aprendizaje de pocos intentos y el ajuste fino tienen efectos limitados en la mejora del rendimiento. La falta de conjuntos de datos etiquetados plantea dudas sobre la aplicabilidad de LLM a la CTI.
👍