본 논문은 최근 인공지능(AI)의 급속한 발전에 따라 제기되는 안전 위험에 대한 우려를 다룬다. AI 시스템의 안전한 사용 및 개발을 위한 의사결정을 지원하기 위해 위험한 모델 기능에 대한 고품질 평가의 필요성이 증대되고 있으나, "좋은 평가"의 명확한 정의는 아직 합의되지 않았다. 본 논문은 모델 평가에 대한 선행 연구와 사이버 보안 사례를 바탕으로 안전 평가를 위한 모범 사례를 제시하는 실무자 관점의 논문이다. 위협 모델링을 평가 설계와 연결하는 초기 사고 과정의 단계를 논의하고, 유용한 평가를 만드는 특징과 매개변수를 제시하며, 특정 평가 구축에서 포괄적인 평가 세트 구축으로 넘어가는 과정에서의 추가적인 고려 사항을 다룬다.