Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Un marco neurosimbólico para la detección interpretable de ataques cognitivos en realidad aumentada

Created by
  • Haebom

Autor

Rongqian Chen, Allison Andreyev, Yanming Xiu, Mahdi Imani, Bin Li, Maria Gorlatova, Gang Tan, Tian Lan

Describir

Este artículo presenta CADAR, un novedoso enfoque neurosimbólico para la detección de ataques cognitivos en entornos de realidad aumentada (RA). CADAR utiliza un modelo de lenguaje visual (VLM) preentrenado para fusionar entradas multimodales de lenguaje visual y obtener una representación gráfica perceptual simbólica, que incorpora conocimiento previo, ponderaciones de importancia y correlaciones temporales. Posteriormente, detecta ataques cognitivos mediante inferencia estadística basada en filtros de partículas. A diferencia de los métodos existentes que se centran en las variaciones visuales, que se limitan al procesamiento a nivel de píxel o imagen y carecen de capacidades de inferencia semántica, o que dependen de VLM preentrenados, que son enfoques de caja negra con interpretabilidad limitada, CADAR combina la adaptabilidad de los VLM preentrenados con la interpretabilidad y el rigor de inferencia del filtrado de partículas. Los resultados experimentales en un conjunto de datos extendido de ataques cognitivos de RA demuestran una precisión hasta un 10,7 % superior a la de los modelos de vanguardia existentes en escenarios complejos de ataques de RA.

Takeaways, Limitations

Takeaways:
Mejoramos la precisión y la interpretabilidad de la detección de ataques cognitivos de RA utilizando un enfoque de símbolos neuronales.
Combinamos con éxito la adaptabilidad de los VLM previamente entrenados con la interpretabilidad y el rigor de inferencia del filtrado de partículas.
Representa un avance significativo en el campo de la detección de ataques cognitivos de RA, logrando una precisión mejorada de hasta un 10,7 % con respecto a los métodos existentes.
Limitations:
Se requiere mayor investigación para determinar el rendimiento de generalización del método propuesto. Es necesario determinar si las mejoras de rendimiento logradas en un conjunto de datos específico se mantienen en otros conjuntos de datos.
Existe una dependencia de los VLM previamente entrenados, lo que puede reflejar directamente las limitaciones de los VLM.
El costo computacional de los filtros de partículas puede no ser adecuado para aplicaciones en tiempo real.
Es necesario evaluar más a fondo el rendimiento de la detección frente a varios tipos de ataques cognitivos de RA.
👍