본 논문은 대규모 언어 모델(LLM)이 다양한 작업에서 사회적 편향과 신념에 기반한 행동의 영향을 받는다는 점을 다룬다. 특히, 사회 시뮬레이션을 위한 다중 에이전트 시스템에서 LLM의 사용이 증가함에 따라, 기본적인 집단 심리적 특성을 모델링하는 LLM의 능력이 중요하지만 아직 충분히 탐구되지 않았다. 이 연구는 집단 상호 작용과 선호도를 형성하는 데 중요한 역할을 하는 고전적인 집단 심리 이론인 신념 일치(belief congruence)를 시뮬레이션하는 다중 에이전트 프레임워크를 제시한다. 연구 결과, LLM은 다양한 상황에서 인간보다 신념 일치가 더욱 증폭되는 것을 보여준다. 또한, 이러한 행동이 (1) 잘못된 정보의 확산과 (2) LLM 학습이라는 두 가지 후속 작업에 미치는 영향을 조사하여, LLM의 신념 일치는 잘못된 정보의 확산을 증가시키고 학습을 방해한다는 것을 발견했다. 이러한 부정적 영향을 완화하기 위해, (1) 접촉 가설, (2) 정확성 유도, (3) 세계 시민권 프레임워크에서 영감을 얻은 전략을 제안한다. 결과적으로 제시된 최적 전략은 잘못된 정보의 확산을 최대 37%까지 줄이고 학습을 11% 향상시킨다. 사회 심리학과 AI를 연결하는 본 연구는 신념에 기반한 편향을 해결하면서 LLM을 사용하여 실제 상호 작용을 탐색하는 데 대한 통찰력을 제공한다.