본 논문은 급속히 발전하는 AI 모델의 사이버 공격 가능성을 평가하고 안전한 AGI 개발을 위한 방안을 제시하는 새로운 평가 프레임워크를 소개한다. 기존의 사이버 평가 방식의 비체계적인 측면을 개선하기 위해, 전체 공격 과정을 분석하고 AI 위협 평가의 허점을 파악하며, 방어 우선순위 설정 및 AI 기반 적대자 에뮬레이션을 지원하는 것을 목표로 한다. Google의 위협 정보 그룹이 분류한 12,000건 이상의 실제 AI 기반 사이버 공격 사례 분석을 바탕으로 7가지 대표적인 사이버 공격 체인 유형을 도출하고, 병목 분석을 통해 AI가 공격 비용에 미치는 영향을 파악했다. 다양한 공격 단계를 아우르는 50개의 새로운 과제로 구성된 벤치마크를 개발하여, AI의 공격 능력 증폭 가능성을 평가하고 방어 우선순위 설정을 위한 권고안을 제시한다.