AI 안전 수준(ASL) 위협 평가 및 측정은 이해관계자가 위험을 허용 가능한 범위 내로 유지하기 위한 안전 장치를 구현하도록 안내하는 데 중요합니다. ASL-3+ 모델은 특히 생물 보안 분야에서 초보 비국가 행위자를 지원하는 능력에 있어 독특한 위험을 제시합니다. 기존 평가 지표(LAB-Bench, BioLP-bench, WMDP 등)는 모델의 역량 강화 및 도메인 지식을 안정적으로 평가할 수 있습니다. 그러나 LLM의 안전 사례를 알리기 위해 "실제 위험"을 더 잘 맥락화하는 지표가 필요하며, 급속한 발전에 맞춰 확장 가능한 개방형 지표가 필요합니다. 이러한 두 가지 격차를 해결하기 위해, 실제 위험을 정량화할 수 있는 해석 가능하고 이중 확장 가능한 지표(자동화 가능 및 개방형)인 MOCET을 제시합니다.