본 논문은 사회 심리학 이론인 침묵의 나선(SoS) 이론을 대규모 언어 모델(LLM) 집단에 적용하여, 인간 사회에서 발생하는 SoS와 유사한 역학이 LLM에서도 나타날 수 있는지 연구한다. 이를 위해 역사적 정보(History)와 페르소나 정보(Persona)의 유무에 따라 LLM의 의견 변화를 분석하는 평가 프레임워크를 제안한다. 실험 결과, 역사 정보와 페르소나 정보가 함께 제공될 때 SoS와 유사한 양상이 나타났으며, 역사 정보만 있을 때는 의견 고착 현상이, 페르소나 정보만 있을 때는 다양한 의견이 나타났지만 SoS와 같은 의견 통일 현상은 나타나지 않았다. 이 연구는 계산 사회학과 책임있는 AI 설계의 연관성을 강조하며, LLM 기반 시스템에서 나타날 수 있는 동조 현상에 대한 감시 및 완화의 필요성을 제시한다.