Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

CodeAgents : un cadre efficace en jetons pour le raisonnement multi-agents codifié dans les LLM

Created by
  • Haebom

Auteur

Bruce Yang, Xinfeng He, Huan Gao, Yifan Cao, Xiaofan Li, David Hsu

Contour

Cet article souligne l'importance d'une conception efficace des invites pour améliorer la capacité de planification des agents basés sur des modèles de langage à grande échelle (LLM), et souligne les lacunes des stratégies d'invite structurées existantes (évaluation mono-agent, centrée sur le plan et basée sur la précision des tâches). Pour remédier à ces lacunes, nous présentons CodeAgents, un framework d'invite permettant une planification structurée et efficace en termes de jetons dans des environnements multi-agents. CodeAgents encode tous les composants de l'interaction entre les agents, y compris les tâches, les plans, les retours d'information, les rôles système et les appels d'outils externes, en pseudo-code modulaire riche en structures de contrôle (boucles, conditions), en logique booléenne et en variables formelles. Cela transforme les plans d'agents faiblement couplés en programmes d'inférence multi-agents cohérents, interprétables et vérifiables. Évaluée sur trois benchmarks, GAIA, HotpotQA et VirtualHome, à l'aide de différents LLM, notre approche démontre des performances de planification supérieures de 3 à 36 % à celles des lignes de base utilisant le langage naturel, et atteint un taux de réussite de pointe de 56 % sur VirtualHome. De plus, elle réduit l'utilisation des jetons d'entrée et de sortie de respectivement 55 à 87 % et 41 à 70 %, soulignant l'importance des indicateurs d'évaluation prenant en compte les jetons dans le développement de systèmes LLM multi-agents évolutifs. Le code et les ressources sont disponibles dans https://anonymous.4open.science/r/CodifyingAgent-5A86 .

Takeaways, Limitations

Takeaways:
Présentation du framework CodeAgents qui est efficace pour améliorer les capacités de planification d'agents basées sur LLM dans les environnements multi-agents
Génération de programmes d'inférence multi-agents structurés et interprétables via un pseudo-code modulaire.
ÉVolutivité accrue et performances améliorées grâce à une efficacité accrue des jetons (amélioration de 3 à 36 %, taux de réussite de 56 % atteint dans VirtualHome)
Souligner l'importance des mesures d'évaluation de la reconnaissance des jetons
Limitations:
Des recherches supplémentaires sont nécessaires pour déterminer la généralisabilité du cadre présenté et son applicabilité à divers environnements.
Il est nécessaire d'analyser les différences de performances en fonction du type et de la taille du LLM utilisé
À Mesure que la complexité du pseudo-code augmente, des difficultés d’interprétation et de gestion peuvent survenir.
Des informations supplémentaires sont nécessaires sur le contenu spécifique et la convivialité du code et des documents actuellement publiés.
👍