Este artículo propone el marco de Cadena Colaborativa de Agentes (CoCoA) para abordar el desafío Limitations de la Generación Aumentada de Recuperación (RAG), un marco prometedor para mejorar el rendimiento de los modelos de lenguaje a gran escala (LLM) en tareas intensivas en conocimiento. Los métodos RAG existentes no logran aprovechar completamente la sinergia entre el conocimiento de parámetros internos del modelo y el conocimiento de recuperación externo, pero CoCoA supera este problema a través de un enfoque multiagente. Primero, presentamos CoCoA-zero, que realiza inferencia después de la inducción de conocimiento condicional. Con base en esto, desarrollamos CoCoA, que afina el LLM sintetizando una ruta de inferencia multiagente extendida. Los resultados experimentales demuestran que CoCoA-zero y CoCoA logran un rendimiento superior en tareas de preguntas y respuestas de dominio abierto y de múltiples pasos.