Este artículo analiza la formación de confianza, la resistencia a la desinformación y las capacidades de integración de la información entre pares de un modelo de lenguaje a gran escala (LLM), que se utiliza como un componente de la inteligencia colaborativa en sistemas multiagente (MAS). A diferencia de estudios previos que se centran principalmente en el pensamiento grupal, este artículo profundiza en estos aspectos, que son cruciales para lograr la inteligencia colectiva bajo dinámicas sociales complejas. Para lograr esto, presentamos KAIROS, un punto de referencia que simula una competencia de preguntas con agentes pares de diferentes niveles de confianza, lo que permite ajustar diversas condiciones como roles de experto-novato, multitudes ruidosas y pares adversarios. El LLM investiga sistemáticamente el impacto de la confianza, el comportamiento de los pares y la autoconfianza en la toma de decisiones mediante la recopilación de interacciones pasadas y respuestas actuales de los pares. Evaluamos la incitación, el ajuste fino del aprendizaje supervisado y el aprendizaje de refuerzo (GRPO) como estrategias de mitigación en múltiples modelos. Nuestros resultados muestran que GRPO, que combina un contexto multiagente, recompensas basadas en resultados e inferencia sin restricciones, logra el mejor rendimiento, pero es menos robusto a la influencia social que el modelo base. El código y el conjunto de datos están disponibles públicamente.