[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

BLAST: Un ataque sigiloso de puerta trasera contra sistemas cooperativos multiagente basados en aprendizaje de refuerzo profundo

Created by
  • Haebom

Autor

Jing Fang, Saihao Yan, Xueyu Yin, Yinbo Yu, Chunwei Tian, Jiajia Liu

Describir

En este artículo, proponemos BLAST, una novedosa técnica de ataque de puerta trasera para sistemas cooperativos de aprendizaje profundo por refuerzo multiagente (c-MADRL). Para superar las limitaciones de los ataques de puerta trasera existentes (falta de sigilo del patrón de activación inmediata, aprendizaje/activación de la puerta trasera mediante redes adicionales y backdooring de todos los agentes), BLAST ataca a todo el equipo multiagente insertando una puerta trasera en un solo agente. El sigilo se logra utilizando patrones de comportamiento espaciotemporales adversarios como activadores de la puerta trasera, y la función de recompensa del agente de la puerta trasera se induce unilateralmente para lograr el efecto de ataque de palanca. Mediante experimentos con algoritmos VDN, QMIX y MAPPO, y mecanismos de defensa existentes en entornos SMAC y Pursuit, confirmamos la alta tasa de éxito de los ataques y la baja varianza del rendimiento normal de BLAST.

Takeaways, Limitations

Takeaways:
Se presenta un nuevo método para atacar sistemas multiagente completos a través de una puerta trasera de un solo agente.
Una técnica propuesta de ataque de puerta trasera que aumenta el sigilo mediante el uso de patrones de comportamiento espaciotemporales como desencadenantes.
Demostrar experimentalmente la viabilidad de ataques efectivos contra algoritmos c-MADRL y mecanismos de defensa existentes.
Destacando la gravedad de las vulnerabilidades de seguridad en sistemas cooperativos multiagente.
Limitations:
El ataque propuesto puede estar limitado a entornos y algoritmos específicos.
Es necesario evaluar mecanismos de defensa más diversos.
Se necesitan más investigaciones para determinar la aplicabilidad y generalización en entornos del mundo real.
Es necesario considerar la viabilidad y las cuestiones éticas de piratear las funciones de recompensa mediante inducción unilateral.
👍