Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

RAILGUN : une politique convolutionnelle unifiée pour la recherche de chemin multi-agents dans différents environnements et tâches

Created by
  • Haebom

Auteur

Yimin Tang, Xiao Xiong, Jingyi Xi, Jiaoyang Li, Erdem B{\i}y{\i}k, Sven Koenig

Contour

Cet article présente RAILGUN, la première politique centralisée basée sur l'apprentissage pour le problème de recherche de chemin multi-agents (MAPF). Contrairement aux méthodes d'apprentissage distribué existantes, RAILGUN utilise une architecture CNN pour concevoir une politique supervisée, permettant la généralisation sur une large gamme de tailles de cartes et de nombres d'agents. Le modèle est entraîné par apprentissage supervisé à partir de données de trajectoire collectées à partir de méthodes basées sur des règles. De nombreux résultats expérimentaux démontrent que RAILGUN surpasse les méthodes existantes et atteint d'excellentes performances de généralisation sans échec.

Takeaways, Limitations

Takeaways:
Nous présentons la première politique centralisée basée sur l’apprentissage pour le problème de recherche de chemin multi-agent.
Démonstration de la généralisabilité sur différentes tailles de cartes et nombres d'agents avec des politiques basées sur des cartes.
Il a été vérifié expérimentalement que les performances de généralisation à zéro coup sont excellentes.
Obtenez des performances supérieures par rapport aux méthodes existantes
Limitations:
Appuyez-vous sur des approches d’apprentissage supervisé qui utilisent des données collectées à partir de méthodes basées sur des règles.
Manque de description détaillée de l'architecture et du processus de formation de RAILGUN (informations supplémentaires nécessaires)
Manque de validation des performances de généralisation pour d’autres types de problèmes MAPF (par exemple, les environnements dynamiques).
👍