2025년에 발표된 "AI 2027" (Kokotajlo et al., 2025)와 "If Anyone Builds It, Everyone Dies" (Yudkowsky & Soares, 2025)는 초지능 인공지능이 다음 10년 안에 인류를 파괴하거나 쓸모없게 만들 것이라고 주장한다. 이 논문은 Good (1965)와 Bostrom (2014)이 제시한 지능 폭발, 초지능, 치명적인 정렬 불일치로 이어지는 과정을 2023-2025년의 경험적 기록을 통해 검토한다. 60년이 지난 지금, 지속적인 재귀적 자기 개선, 자율적인 전략적 인식, 해결 불가능한 치명적인 정렬 불일치와 같은 현상은 관찰되지 않았다. 현재 생성 모델은 좁은 범위의 통계적으로 훈련된 인공물에 불과하며, 재앙적인 시나리오를 현실화할 만한 특성이 결여되어 있다. 또한, 감시 자본주의의 지속적인 강화와 극심한 컴퓨팅 능력 집중을 가리는 이데올로기적 방해로 작용하며, 2025년 AI 투기 거품에 의해 증폭된다고 주장한다.