본 논문은 대규모 언어 모델(LLM)의 발전으로 인해 생성된 다국어 텍스트의 질이 향상됨에 따라 가짜 정보 악용에 대한 우려가 증가하고 있음을 다룹니다. 인간이 LLM이 생성한 콘텐츠와 인간이 작성한 텍스트를 구분하는 데 어려움을 겪는 가운데, 학계에서는 LLM의 영향에 대한 논쟁이 분분합니다. 일각에서는 자연적인 생태계의 한계로 인해 과도한 우려라는 주장이 있는 반면, 다른 일각에서는 특정 "롱테일" 맥락에서 간과된 위험에 직면해 있다고 주장합니다. 본 연구는 최신 실제 가짜 정보 데이터셋에서 LLM의 존재에 대한 최초의 경험적 증거를 제공하고, ChatGPT 출시 이후 기계 생성 콘텐츠의 증가를 기록하며, 언어, 플랫폼, 기간에 걸친 중요한 패턴을 밝힘으로써 이러한 논쟁에 대한 가교를 제공합니다.