본 논문은 다중 에이전트 시스템(MAS)에서 협업 지능의 구성 요소로 사용되는 대규모 언어 모델(LLM)의 신뢰 형성, 잘못된 정보 저항, 피어 입력 통합 능력을 분석합니다. 기존 연구에서 주로 집단사고에 초점을 맞춘 것과 달리, 본 논문은 복잡한 사회적 역동성 하에서 집단 지능 달성에 중요한 요소인 이러한 측면을 심층적으로 조사합니다. 이를 위해, 다양한 신뢰도를 가진 피어 에이전트와 함께 퀴즈 대회를 시뮬레이션하는 벤치마크 KAIROS를 제시하며, 전문가-초보자 역할, 노이즈가 많은 군중, 적대적 피어 등 다양한 조건을 미세하게 조정할 수 있습니다. LLM은 과거 상호 작용과 현재 피어 응답을 모두 받아 신뢰, 피어 행동, 자기 확신이 의사 결정에 미치는 영향을 체계적으로 조사합니다. 완화 전략으로 프롬프팅, 지도 학습 파인튜닝, 강화 학습(GRPO)을 여러 모델에서 평가하고, 그 결과 다중 에이전트 컨텍스트와 결과 기반 보상, 제약 없는 추론을 결합한 GRPO가 최고 성능을 달성하지만 기본 모델에 비해 사회적 영향에 대한 강건성은 감소함을 보여줍니다. 코드와 데이터셋은 공개되어 있습니다.