Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Entrenamiento de redes neuronales demostrablemente seguras mediante análisis de alcanzabilidad de zonótopos híbridos

Created by
  • Haebom

Autor

Long Kiu Chung, Shreyas Kousik

Describir

Para abordar el desafío de ajustar las restricciones sobre las salidas de redes neuronales en aplicaciones de control críticas para la seguridad, este artículo propone un método de entrenamiento de redes neuronales que deriva imágenes precisas de conjuntos de entrada no convexos para redes neuronales con no linealidades ReLU, con el fin de evitar regiones inseguras no convexas. Esto se logra mediante el análisis de alcanzabilidad utilizando una representación extendida de conjuntos de zonotopos híbridos que permite la detección de colisiones diferenciables mediante programación lineal de enteros mixtos (MILP). El método ha demostrado ser eficiente y rápido para redes de hasta 240 neuronas, y su complejidad computacional está dominada por operaciones inversas sobre matrices que escalan linealmente con el número de neuronas y la complejidad de los conjuntos de entrada e inseguros. Demostramos su viabilidad en el entrenamiento de controladores de redes neuronales invariantes hacia adelante para sistemas dinámicos afines con conjuntos de entrada no convexos y en la generación de planes seguros de evitación de alcance para sistemas dinámicos de caja negra.

Takeaways, Limitations

Takeaways: Se presenta un método eficiente y rápido para entrenar redes neuronales que evitan regiones inseguras no convexas. Su eficacia se demuestra en redes de hasta 240 neuronas. Se demuestra la viabilidad de generar control y planificación seguros para sistemas dinámicos afines y sistemas de caja negra. Se realiza un análisis de alcanzabilidad eficiente mediante la detección de colisiones diferenciables con un zonotopo híbrido extendido.
Limitations: Se requiere verificación del rendimiento para redes con más de 240 neuronas. Dado que la complejidad computacional es linealmente proporcional al número de neuronas y a la complejidad del conjunto de entrada/incertidumbre, la escalabilidad puede ser limitada para redes grandes o conjuntos complejos. También se requiere la generalización a redes neuronales con diversos tipos de no linealidades.
👍