Cet article analyse la formation de la confiance, la résistance à la désinformation et les capacités d'intégration des contributions des pairs d'un modèle linguistique à grande échelle (MLL), utilisé comme composante de l'intelligence collaborative dans les systèmes multi-agents (SMA). Contrairement aux études précédentes qui se concentraient principalement sur la pensée de groupe, cet article explore ces aspects, essentiels à l'intelligence collective dans des dynamiques sociales complexes. Pour y parvenir, nous présentons KAIROS, un benchmark qui simule un quiz avec des agents pairs de différents niveaux de confiance, permettant d'affiner diverses conditions telles que les rôles expert-novice, les foules bruyantes et les pairs antagonistes. Le LLM étudie systématiquement l'impact de la confiance, du comportement des pairs et de la confiance en soi sur la prise de décision en collectant à la fois les interactions passées et les réponses actuelles des pairs. Nous évaluons l'incitation, l'apprentissage supervisé, l'ajustement fin et l'apprentissage par renforcement (GRPO) comme stratégies d'atténuation dans plusieurs modèles. Nos résultats montrent que le GRPO, qui combine un contexte multi-agent, des récompenses basées sur les résultats et une inférence sans contrainte, obtient les meilleures performances, mais est moins résistant à l'influence sociale que le modèle de base. Le code et l'ensemble de données sont accessibles au public.