본 논문은 첨단범용인공지능(GPAI)의 악의적 사용이나 오작동으로 인한 인류 몰락 또는 멸종 가능성에 대한 우려를 다룬다. 이러한 위험을 해결하기 위한 국제적 AI 안전 협약 제안들이 증가하는 가운데, 본 논문은 2023년 이후 제안들을 검토하여 합의점과 불일치점을 파악하고, 관련 문헌을 바탕으로 실현 가능성을 평가한다. 특히 위험 역치, 규제, 국제 협약의 유형, 과학적 합의 구축, 표준화, 감사, 검증, 인센티브 부여 등 5가지 관련 과정에 초점을 맞춘다. 그리고 엄격한 감독이 필요한 컴퓨팅 역치를 설정하는 조약을 제안하며, 국제 AI 안전 연구소(AISI) 네트워크를 통한 모델 감사, 정보 보안 및 거버넌스 관행의 의무화, 용납할 수 없는 위험 발생 시 개발 중단 권한 부여 등을 포함한다. 본 논문의 접근 방식은 즉시 실행 가능한 조치와 지속적인 연구에 적응할 수 있는 유연한 구조를 결합한다.