본 논문은 최첨단 AI 기업들이 안전한 모델 개발 및 배포를 위한 역량 한계와 위험 완화를 정의하는 안전 프레임워크를 발표했지만, 체계적인 위험 모델링 접근 방식에 대한 자세한 설명은 부족하다는 점을 지적합니다. 따라서, 시스템 이론적 프로세스 분석(STPA)을 활용하여 복잡한 시스템의 안전하지 않은 상태를 식별하고, 'AI 제어 안전 사례 스케치'의 위협 모델 및 시나리오에 STPA를 적용하여 안전하지 않은 제어 행위 목록을 도출합니다. 이를 통해 기존의 비체계적인 위험 분석 방법론으로는 놓칠 수 있는 인과 요인을 식별하여 안전성을 강화하고, STPA가 역량 한계, 모델 평가 및 비상 절차와 같은 기존 AI 거버넌스 기법을 보완하여 최첨단 AI의 안전성을 높일 수 있음을 보여줍니다. 또한, STPA의 체계적인 방법론은 LLM을 활용하여 분석의 상당 부분을 자동화하여 전문가의 부담을 줄이고 확장성을 높일 수 있다는 점을 제시합니다.