본 논문은 국제 AI 안전 보고서(96명의 전문가가 작성, OECD, EU, UN에서 30명 추천)를 시스템 안전 관점에서 비판적으로 검토한다. 보고서는 범용 AI의 안전 위험과 기술적 완화 방안에 초점을 맞추지만, 저자는 AI 안전에 대한 현재의 기술적 프레임이 근본적인 문제를 가지고 있으며, 의미 있는 논의와 포괄적인 안전 대책 마련을 저해한다고 주장한다. 수십 년간 소프트웨어 기반 시스템의 안전 위험을 다뤄온 시스템 안전 분야의 관점에서, AI 시스템의 안전 위험은 기술적 요소와 비기술적 요소 및 그 상호 작용을 고려해야 하는 사회기술적인 문제임을 강조한다. 국제 AI 안전 보고서가 시스템 안전 접근 방식의 필요성을 인지하고 있음에도 불구하고, 시스템 안전의 교훈, 개념 및 방법론을 통해 비기술적 요소를 추가하는 것이 아니라 통합함으로써 기술적 접근 방식의 현재 결점을 극복할 수 있는 청사진을 제공한다고 주장한다. 마지막으로 시스템 안전 분야 구축을 통해 유럽 AI 법의 한계를 극복하고 공공 이익 AI에 대한 지속 가능한 투자를 형성하는 데 도움이 될 수 있음을 결론짓는다.