본 연구는 규제 산업 전반에 걸쳐 인공지능 시스템의 가속화된 배포로 인해 위험 평가 방법론에 나타나는 심각한 단편화를 해결하는 것을 목표로 한다. 기술 보안 팀과 법률 및 규정 준수 전문가 간의 '언어 장벽'을 극복하기 위해, 본 연구는 정량적 위험 평가(QRA)를 위해 설계된 AI 시스템 위협 벡터 분류법을 제시한다. 이 분류법은 AI 관련 위험을 9가지 핵심 영역으로 분류하고, 기술적 벡터를 비즈니스 손실 범주에 직접 매핑하여 추상적인 위협을 측정 가능한 재정적 영향으로 변환할 수 있도록 한다. 2025년의 133건의 AI 사고 분석을 통해 분류법의 실증적 타당성을 검증했으며, ISO/IEC 42001 통제 및 NIST AI RMF 기능과 연동하여 감사 가능성을 확보했다.