대규모 언어 모델(LLM)이 수열의 규칙성을 파악하는 간단한 과제에서 부적절한 패턴을 생성하는 경향을 보인다는 점을 제시한다. LLM을 활용한 복잡한 실제 과제 접근 방식이 논리적 일관성과 자기 연관성에 의존한다는 점을 강조하며, 이를 평가하고 잠재적 대응 방안을 고려하는 것이 중요하다고 주장한다. 산술 수열에서 무작위로 생성된 정수열까지 다양한 정수열 패턴 분석 실험을 통해, LLM이 산술 및 기하 수열에서는 올바른 패턴을 성공적으로 식별했지만 무작위로 생성된 수열에서는 주어진 숫자와 일치하지 않는 패턴을 과도하게 인식하는 경향을 발견했다. OpenAI o3, o4-mini, Google Gemini 2.5 Flash Preview Thinking 등 다단계 추론 모델에서도 이 문제가 관찰되었다. 이러한 비존재 패턴을 인식하는 경향은 "Idola Tribus"에 비유될 수 있으며, 체인 오브 씽킹(chain-of-thought) 추론 메커니즘을 사용하더라도 논리적 추론이 필요한 응용 작업에서 잠재적인 한계를 보여준다.