본 논문은 대규모 언어 모델(LLM)의 안전 및 보안 문제에 대한 기존의 확률적 위험 분석(PRA)의 한계를 지적하고, 다양한 공학 분야에서 사용되는 비확률적 위험 관리 전략들을 LLM 시스템에 적용하는 방안을 제시한다. 100가지 이상의 비확률적 전략들을 5가지 범주로 분류하여 LLM 보안 및 AI 안전에 적용하고, 이러한 전략들을 적용하기 위한 LLM 기반 워크플로우와 솔루션 아키텍트에게 적합한 다른 워크플로우를 제시한다. LLM의 복잡성과 적응형 공격자의 존재로 인해 기존의 PRA가 부적절함을 강조하며, 비확률적 접근 방식을 통해 LLM의 안전하고 책임있는 사용에 기여할 수 있음을 주장한다.