본 논문은 대규모 언어 모델(LLM)이 획일적인 텍스트를 생성하는 경향이 있으며, 이는 시간이 지남에 따라 접근 가능한 정보의 범위가 축소되는 지식 붕괴의 위험을 초래할 수 있음을 지적한다. 기존 연구의 한계를 극복하기 위해, 본 논문은 LLM 출력물의 실제 세계 주장의 다양성, 즉 '인식적 다양성'을 측정하는 새로운 방법을 제시하고, 이를 통해 LLM 지식 붕괴에 대한 광범위한 실증 연구를 수행한다. 27개의 LLM, 12개 국가를 포괄하는 155개의 주제, 실제 사용자 채팅에서 얻은 200개의 프롬프트 변형을 테스트했다.