본 연구 보고서는 AI 시스템의 LoC(Loss of Control)에 대한 실행 가능한 정의의 부재를 해결하기 위해 새로운 분류 체계와 준비 프레임워크를 개발합니다. 기존 LoC 정의는 범위와 시간 척도에서 큰 차이를 보여 효과적인 LoC 평가 및 완화를 어렵게 만듭니다. 본 연구는 광범위한 문헌 검토를 바탕으로 심각성과 지속성을 기준으로 하는 등급별 LoC 분류 체계를 제안하며, Deviation, Bounded LoC, Strict LoC를 구분합니다. 또한, 충분히 발전된 AI 시스템이 오정렬 또는 순수한 오작동과 같은 촉매가 발생할 경우 Bounded 또는 Strict LoC를 야기할 수 있는 수단을 습득했거나 습득할 수 있는 사회적 취약성 상태로의 경로를 모델링합니다. 본 연구는 전략적 개입이 없을 경우 이러한 상태가 시간이 지남에 따라 더욱 가능성이 높아진다고 주장하며, 사회적 취약성 상태에 도달하지 않기 위한 전략을 제시합니다. AI 능력 및 LoC와 관련된 성향에 개입하거나 잠재적인 촉매를 방지하는 데 집중하는 대신, 배포 컨텍스트, 어포던스, 권한(DAP 프레임워크)이라는 세 가지 외적 요소를 강조하는 보완적 프레임워크를 도입합니다. 마지막으로, 사회적 취약성 상태에 도달할 경우 대비 태세를 유지하고 LoC 결과 발생을 방지하기 위한 계획을 제시하며, 영구적 중단 상태를 유지할 수 있는 거버넌스 조치(위협 모델링, 배포 정책, 비상 대응) 및 기술적 통제(사전 배포 테스트, 통제 조치, 모니터링)에 중점을 둡니다.