Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

HFuzzer: Prueba de modelos de lenguaje grandes para alucinaciones de paquetes mediante fuzzing basado en frases

Created by
  • Haebom

Autor

Yukai Zhao, Menghan Wu, Xing Hu, Xin Xia

Describir

Los Modelos de Lenguaje a Gran Escala (LLM) se utilizan ampliamente para la generación de código, pero representan un grave riesgo de seguridad cuando se aplican en producción debido a las alucinaciones de paquetes, que recomiendan paquetes inexistentes. Estas alucinaciones pueden ser explotadas por atacantes maliciosos para registrar paquetes maliciosos, lo que podría derivar en ataques a la cadena de suministro de software. Este estudio destaca la importancia de probar los LLM para detectar alucinaciones de paquetes con el fin de mitigarlas y defenderse de posibles ataques. Para ello, proponemos HFUZZER, un novedoso marco de fuzzing basado en sintaxis. HFUZZER emplea técnicas de fuzzing y genera tareas de codificación suficientes y diversas, induciendo al modelo a inferir una gama más amplia de información razonable basada en la sintaxis. Además, extrae la sintaxis de la información del paquete o de las tareas de codificación para garantizar la relevancia de la sintaxis y el código, mejorando así la relevancia de las tareas y el código generados. Los resultados de la evaluación de HFUZZER en múltiples LLM mostraron que se indujeron alucinaciones de paquetes en todos los modelos seleccionados. En comparación con los marcos de fuzzing de mutaciones, HFUZZER identificó 2,60 veces más paquetes alucinados únicos y generó una mayor variedad de tareas. Además, al probar GPT-4o, HFUZZER descubrió 46 paquetes alucinados únicos. Un análisis posterior reveló que, para GPT-4o, LLM presenta alucinación de paquetes no solo al generar código, sino también al asistir en la configuración del entorno.

Takeaways, Limitations

Takeaways:
Se propone un nuevo marco, HFUZZER, para resolver el problema de alucinación de paquetes.
Se ha demostrado que HFUZZER es eficaz para inducir alucinaciones empaquetadas en varios LLM.
Incluso modelos modernos como el GPT-4o han confirmado el fenómeno de la alucinación del paquete.
Compruebe posibles alucinaciones de paquetes no solo al generar código sino también al respaldar la configuración del entorno.
Limitations:
La información sobre Limitations específico no está especificada en el artículo (según el resumen)
👍