Cet article propose le cadre de la chaîne d'agents collaborative (CoCoA) pour relever le défi Limitations de la génération augmentée de récupération (RAG), un cadre prometteur pour améliorer les performances des modèles de langage à grande échelle (LLM) dans les tâches intensives en connaissances. Les méthodes RAG existantes ne parviennent pas à exploiter pleinement la synergie entre la connaissance des paramètres internes du modèle et la connaissance de la récupération externe. CoCoA surmonte ce défi grâce à une approche multi-agents. Tout d'abord, nous présentons CoCoA-zero, qui effectue une inférence après induction conditionnelle des connaissances. Sur cette base, nous développons CoCoA, qui affine le LLM en synthétisant un chemin d'inférence multi-agent étendu. Les résultats expérimentaux démontrent que CoCoA-zero et CoCoA atteignent des performances supérieures sur les tâches de questions-réponses à domaine ouvert et en plusieurs étapes.