Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Explorando la incertidumbre de la respuesta en los MLLM: una evaluación empírica bajo escenarios engañosos

Created by
  • Haebom

Autor

Yunkai Dang, Mengxi Gao, Yibo Yan, Xin Zou, Yanggan Gu, Jungang Li, Jingyu Wang, Peijie Jiang, Aiwei Liu, Jia Liu, Xuming Hu

Describir

Este artículo explora la vulnerabilidad a errores de los modelos lingüísticos multimodales a gran escala (MLLM), específicamente el fenómeno de la incertidumbre de respuesta a la desinformación. Utilizando nueve conjuntos de datos estándar y doce MLLM de código abierto de vanguardia, los investigadores descubrieron que una sola señal engañosa resultó en una tasa de reversión del 65% de respuestas previamente correctas. Para analizar esto cuantitativamente, propusimos un proceso de evaluación en dos etapas (validando la respuesta original y midiendo la tasa de error después de inyectar la directiva engañosa) y creamos un Punto de Referencia de Incertidumbre Multimodal (MUB) mediante la recopilación de ejemplos con altas tasas de error. Evaluaciones exhaustivas en doce modelos de código abierto y cinco de código cerrado revelaron una tasa de error promedio superior al 86%, con un 67,19% para señales explícitas y un 80,67% para señales implícitas. Por último, ajustamos los MLLM de código abierto en un conjunto de datos de dirección mixta de 2000 muestras, reduciendo significativamente las tasas de error (6,97 % para señales explícitas y 32,77 % para señales implícitas).

Takeaways, Limitations

Takeaways:
Investigamos sistemáticamente la vulnerabilidad de error del MLLM y su incertidumbre en respuesta a la desinformación.
Se propuso un nuevo punto de referencia (MUB) para mejorar la confiabilidad de MLLM.
Demostramos que la tasa de error de MLLM se puede reducir significativamente mediante un ajuste fino.
Al analizar la vulnerabilidad de MLLM a varios tipos de información engañosa y sugerir formas de mitigarla, podemos contribuir a mejorar la seguridad y confiabilidad de MLLM en aplicaciones prácticas.
Limitations:
Los conjuntos de datos de referencia y de ajuste actuales se centran en tipos específicos de errores, lo que puede limitar su generalización a otros tipos de errores.
Incluso después del ajuste, la tasa de error de las señales implícitas sigue siendo bastante alta.
Dado que los modelos utilizados se limitan a código abierto, se necesita más investigación para determinar la generalización de los resultados a modelos comerciales.
El tamaño relativamente pequeño del conjunto de datos utilizado en el proceso de ajuste para reducir la tasa de error puede señalarse como una limitación.
👍