Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Aprendizaje de refuerzo seguro en entornos de caja negra mediante blindaje adaptativo

Created by
  • Haebom

Autor

Daniel Bethell, Simos Gerasimou, Radu Calinescu, Calum Imrie

Describir

Este artículo presenta ADVICE (Adaptive Shielding with a Contrastive Autoencoder), una novedosa técnica de posprocesamiento para la exploración segura de agentes de aprendizaje por refuerzo (RL). Se centra en la reducción de los riesgos de seguridad que surgen al entrenar agentes de RL en entornos de caja negra sin conocimiento previo. ADVICE distingue entre características seguras e inseguras de los pares estado-acción, protegiendo así al agente de realizar acciones que puedan conducir a resultados inseguros. Los resultados experimentales demuestran que reduce las violaciones de seguridad en aproximadamente un 50 % en comparación con las técnicas existentes de exploración segura de RL, a la vez que logra recompensas competitivas.

Takeaways, Limitations

Takeaways:
Presentamos una técnica de posprocesamiento efectiva para la navegación segura de agentes RL en entornos de caja negra.
Logre un desempeño competitivo y al mismo tiempo reduzca significativamente las violaciones de seguridad.
Se presenta un nuevo enfoque para distinguir las características seguras/inseguras de los pares estado-acción.
Limitations:
El rendimiento de ADVICE puede depender del rendimiento del autocodificador contrastivo.
Se necesita más investigación sobre el rendimiento de la generalización en diferentes entornos y tareas.
Se debe tener en cuenta la seguridad adicional que pueda surgir en aplicaciones del mundo real.
👍