Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

GenBFA: Un enfoque de optimización evolutiva para ataques de inversión de bits en LLM

Created by
  • Haebom

Autor

Sanjay Das, Swastik Bhattacharya, Souvik Kundu, Shamik Kundu, Anand Menon, Arnab Raha, Kanad Basu

Describir

En este artículo, estudiamos la vulnerabilidad de los modelos de lenguaje a gran escala (LLM) a las amenazas de hardware, especialmente a los ataques de inversión de bits (BFA). Si bien trabajos previos afirman que las arquitecturas basadas en transformadores son más robustas contra los BFA, demostramos que incluso unas pocas inversiones de bits pueden degradar gravemente el rendimiento de los LLM con miles de millones de parámetros. Para abordar este problema, proponemos AttentionBreaker, un novedoso marco que explora eficientemente el espacio de parámetros de los LLM para identificar parámetros importantes, y GenBFA, una estrategia de optimización evolutiva que encuentra los bits más significativos. Los resultados experimentales demuestran que AttentionBreaker expone una grave vulnerabilidad de los LLM, donde incluso unas pocas inversiones de bits pueden colapsar por completo el rendimiento del modelo.

Takeaways, Limitations

Takeaways:
Se demuestra empíricamente que LLM es muy vulnerable a BFA.
Proponemos AttentionBreaker, un nuevo marco para explorar eficientemente el espacio de parámetros de LLM.
Proponemos GenBFA, una estrategia de optimización evolutiva para encontrar eficientemente bits importantes.
Destacamos que incluso una pequeña cantidad de cambios de bits puede degradar drásticamente el rendimiento de LLM.
Destacando la importancia de la investigación en mejora de la seguridad en el LLM.
Limitations:
La eficacia y eficiencia de AttentionBreaker y GenBFA pueden variar según los métodos de ataque LLM y BFA específicos.
Se necesita más investigación sobre diversas arquitecturas, tamaños y métodos de cuantificación de LLM.
Se necesita un análisis más profundo de la tasa de éxito de los ataques y su impacto en entornos del mundo real.
Existe una falta de investigación sobre técnicas de defensa contra las técnicas de ataque propuestas.
👍