본 논문은 대규모 언어 모델(LLM)이 다양한 상황에서 널리 배포됨에 따라 암묵적으로 잘못된 정보를 확산시킬 수 있는 정도가 중요한 안전 문제로 부상하고 있음을 다룹니다. 기존 연구는 명시적인 허위 진술에 대한 LLM의 평가에 주로 초점을 맞추었지만, 실제 상호 작용에서 잘못된 정보가 어떻게 암묵적인 전제로 미묘하게 나타나는지에 대해서는 간과했습니다. 본 연구는 암묵적인 잘못된 정보에 대한 첫 번째 종합적인 벤치마크인 EchoMist를 제시합니다. EchoMist는 실제 사람-AI 대화 및 소셜 미디어 상호 작용을 포함한 다양한 출처에서 유통되고, 해롭고, 끊임없이 진화하는 암묵적인 잘못된 정보를 대상으로 합니다. 15개의 최첨단 LLM에 대한 광범위한 실증 연구를 통해 현재 모델이 이 작업에서 놀라울 정도로 성능이 저조하며, 종종 잘못된 전제를 감지하지 못하고 반사실적인 설명을 생성하는 것을 발견했습니다. 또한 LLM의 암묵적인 잘못된 정보에 대응하는 능력을 향상시키기 위한 두 가지 완화 방법(Self-Alert 및 RAG)을 조사했습니다. 연구 결과는 EchoMist가 지속적인 과제임을 나타내며 암묵적인 잘못된 정보의 위험으로부터 보호해야 할 중요한 필요성을 강조합니다.