Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

La conciencia de seguridad de la información de los grandes modelos lingüísticos

Created by
  • Haebom

Autor

Ofir Cohen, Gil Ari Agmon, Asaf Shabtai, Rami Puzis

Describir

Este artículo presenta un método automatizado para medir el nivel de Conciencia de Seguridad de la Información (ISA) de asistentes basados ​​en modelos de lenguaje a gran escala (LLM). ISA abarca no solo el conocimiento de seguridad de los LLM abordado en investigaciones previas, sino también las actitudes y comportamientos cruciales para comprender el contexto de seguridad implícito y rechazar solicitudes inseguras, utilizando 30 taxonomías de ISA móviles. Utilizando escenarios reales para explorar la tensión entre los riesgos de seguridad implícitos y la satisfacción del usuario, evaluamos los niveles de ISA de los principales LLM. Observamos que la mayoría de los modelos presentan niveles de ISA medios o bajos. En particular, las variantes más pequeñas dentro de la misma familia de modelos son aún más peligrosas, y la falta de mejoras consistentes de ISA en versiones recientes sugiere que los proveedores no están abordando activamente este problema. Esto demuestra la vulnerabilidad generalizada de las implementaciones actuales de LLM, lo que implica que los modelos más populares, incluidas las variantes más pequeñas, exponen sistemáticamente a los usuarios a riesgos. Este artículo propone una estrategia práctica de mitigación que integra directrices de conciencia de seguridad en las indicaciones del sistema de modelos para ayudar a los LLM a detectar y rechazar mejor las solicitudes inseguras.

Takeaways, Limitations

Takeaways:
Advertimos a los usuarios sobre los riesgos de ciberseguridad al revelar que el nivel de Conciencia de Seguridad de la Información (ISA) de los asistentes basados ​​en LLM es generalmente bajo.
Esto demuestra que las variantes más pequeñas de LLM pueden suponer un mayor riesgo.
Señala que los proveedores de LLM no están realizando esfuerzos activos para mejorar ISA.
Presentamos un enfoque de mitigación práctico que integra orientación consciente de la seguridad en las indicaciones del sistema modelo.
Limitations:
Se necesita más investigación para determinar la generalización del método de medición ISA presentado en este artículo.
Se necesita un análisis más profundo del impacto de ISA en varias arquitecturas LLM y datos de capacitación.
Se necesita investigación empírica para evaluar la eficacia de las medidas de mitigación propuestas.
👍