본 연구는 AI 시스템의 '제어 불능(LoC)'에 대한 실행 가능한 정의의 부재를 해결하기 위해 새로운 분류법과 준비 프레임워크를 개발합니다. LoC 정의의 광범위한 변동성을 해결하기 위해, 심각성과 지속성을 기준으로 'Deviation', 'Bounded LoC', 'Strict LoC'로 구분되는 등급별 LoC 분류법을 제안합니다. 또한, AI 시스템이 Bounded 또는 Strict LoC를 야기할 수 있는 사회적 취약성 상태로 이어지는 경로를 모델링하고, 전략적 개입이 없을 경우 이러한 상태가 시간이 지남에 따라 증가할 가능성이 있다고 주장합니다. AI 기능 및 LoC 관련 성향에 대한 개입이나 잠재적 촉매 방지에만 초점을 맞추는 대신, '배포 컨텍스트', '어포던스', '권한(DAP 프레임워크)'의 세 가지 외부 요소를 강조하는 보완적인 프레임워크를 제시합니다. 마지막으로, 사회적 취약성 상태에 도달할 경우 LoC 발생을 방지하기 위한 거버넌스 조치와 기술적 통제를 포함하는 준비 계획을 제시합니다.