본 논문은 분산된 문서 집합에서 주어진 질문에 대한 정답을 추정하기 위해 상호작용하는 대규모 언어 모델(LLM) 네트워크가 어떻게 협력적 질문 응답(CQA)을 수행하는지 모델링하고 분석합니다. 특히, 직접적인 증거가 부족할 때 LLM이 환각을 일으키는 현상을 연구하며, 이러한 환각이 상호작용하는 LLM 네트워크에서 어떻게 확산되는지, 이를 해결하기 위해 평균장 역학(MFD)과 무작위 유틸리티 모델을 결합한 생성 모델을 제시합니다. 모델은 각 LLM을 진실 또는 거짓을 나타내는 잠재 상태로 묘사하고, MFD를 사용하여 정보 확산을 모델링합니다. 또한, 고정점의 존재와 유일성을 위한 충분 조건을 제시하고, 개별 LLM에 주어진 인센티브(예: 테스트 시간 컴퓨팅)에 따른 고정점의 동작을 분석합니다. 실험적으로, 100개의 오픈 소스 LLM 네트워크를 사용하여 데이터 이질성, 노드 성능, 네트워크 구조 및 프레이밍 감도에 대한 영향을 연구하고 분석합니다.