본 논문은 AI 시스템이 국가 안보에 대한 위협(예: 사이버 공격 용이화, 자율 AI 시스템 제어 상실)을 야기할 수 있다는 우려를 배경으로, 미국 연방 입법부의 초기 'AI 사고 체계' 제안과 연계하여 법적으로 의무화된 AI 사고 체계를 제안한다. '안보 중요' 시스템(민간 원자력, 항공, 생명과학 이중용도 연구, 첨단 AI 개발)에 대한 기존 사고 체계와 유사성을 바탕으로, 3단계(AI 사고 정의 및 첨단 AI 시스템 배포 전 국가 안보 사례 제출, 정부 기관에 대한 사고 통보, 정부 기관의 안전 절차 개선 참여)로 구성된 AI 사고 체계를 제시하고, 가상 시나리오를 통해 이를 설명한다.