본 논문은 인공지능(AI) 기반 치명적 자율 무기 시스템(AI-LAWS)의 사회기술적 영향에 대한 연구 부족을 지적하며, AI-LAWS가 야기하는 예측 불가능한 확전, 낯선 환경에서의 낮은 신뢰성, 인간 감독의 약화 등의 위험성을 분석합니다. 기존의 치명적 자율 무기 시스템(LAWS) 규제 프레임워크가 AI-LAWS의 고유한 위험성을 구분하지 못한다는 점을 강조하며, 현대 AI의 사용으로 인해 고유한 위험을 야기하는 AI-LAWS에 대한 명확한 행동 기반 정의를 제시합니다. 이를 기반으로 기술적으로 정확한 규제를 위한 정책 방향을 제안하고, 군사 AI 정책 논의에 AI 연구자들의 참여를 촉구합니다.