본 논문은 2024 AI 서울 서밋에서 합의된 프런티어 AI 안전 약정의 일환으로, 많은 AI 개발자들이 시스템과 관련된 잠재적인 심각한 위험을 관리하는 방법을 설명하는 안전 프레임워크를 발표하기로 한 데 따른 것이다. 본 논문은 기업, 정부 및 연구원들의 효과적인 안전 프레임워크 작성에 대한 현재의 생각을 요약한다. 안전 프레임워크의 세 가지 핵심 영역(위험 식별 및 평가, 위험 완화, 거버넌스)을 개괄하고 각 영역 내에서 새롭게 등장하는 관행을 제시한다. 안전 프레임워크는 새롭고 빠르게 발전하고 있으므로, 본 논문은 지금까지의 작업에 대한 개요이자 추가적인 논의와 혁신을 위한 시작점으로 활용될 수 있기를 기대한다.