Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Théorie de l'esprit utilisant l'inférence active : un cadre pour la coopération multi-agents

Created by
  • Haebom

Auteur

Riddhi J. Pitliya, Ozan \c{C}atal, Toon Van de Maele, Corrado Pezzato, Tim Verbelen

Contour

Cet article présente une nouvelle approche de coopération multi-agents, mettant en œuvre la théorie de l'esprit (ToM) dans un cadre d'inférence active. Contrairement aux approches d'inférence active existantes pour la coopération multi-agents, cette approche ne repose pas sur des modèles génératifs partagés spécifiques à une tâche ni sur une communication explicite. Les agents ToM représentent distinctement leurs propres croyances et objectifs, ainsi que ceux des autres agents, et explorent systématiquement un espace politique commun par inférence récursive, à l'aide d'un algorithme de planification sophistiqué, étendu et modifié, basé sur un arbre d'inférence. Nous évaluons cette approche à l'aide de simulations d'évitement de conflits et de recherche de ressources, démontrant que les agents ToM coopèrent mieux que les agents non ToM en évitant les conflits et en réduisant les efforts redondants. Il est crucial que les agents ToM déduisent les croyances des autres agents uniquement à partir de comportements observables et les prennent en compte lors de la planification de leurs propres actions. Cette approche démontre le potentiel des systèmes multi-agents généralisables et évolutifs, tout en fournissant des informations informatiques sur le mécanisme de la ToM.

Takeaways, Limitations

Takeaways:
Nous présentons une nouvelle méthode de coopération multi-agents en implémentant ToM dans un cadre d'inférence active.
Démontre la possibilité d'une coopération inter-agents sans modèles de partage spécifiques aux tâches ni communication explicite.
Démontrer l’efficacité des agents ToM à déduire les croyances des autres agents et à planifier des actions coopératives basées uniquement sur leur comportement observable.
Présenter la possibilité de développer des systèmes multi-agents généralisables et évolutifs.
Faire progresser la compréhension informatique des mécanismes de la théorie de l'esprit.
Limitations:
Difficulté de généralisation en raison des limitations de l'environnement de simulation présenté.
Une vérification des performances dans des environnements réels et complexes est nécessaire.
Une analyse plus approfondie du coût de calcul et de la complexité des agents ToM est nécessaire.
L’applicabilité à différents types d’agents et d’interactions doit être vérifiée.
👍