본 논문은 대규모 언어 모델(LLM) 기반의 인공지능 심리치료사의 확산으로 인한 잠재적 위험(사용자 피해 및 자살 등)을 다룹니다. 기존 평가 방법의 한계를 지적하며, 심리치료 과정에서 발생할 수 있는 미묘한 위험을 포착할 수 있는 새로운 위험 온톨로지를 제안합니다. 심리치료 위험 관련 문헌 검토, 임상 및 법률 전문가 인터뷰, DSM-5 및 기존 평가 도구(NEQ, UE-ATR 등)를 바탕으로 개발된 이 온톨로지는 사용자/환자 피해를 체계적으로 식별하고 평가하는 구조적 접근 방식을 제공합니다. 실제 사용자 상호 작용 모니터링, 시뮬레이션 환자를 이용한 평가, 벤치마킹 및 비교 분석, 예상치 못한 결과 식별 등 네 가지 활용 사례를 자세히 논의하며, AI 기반 정신 건강 지원 분야의 안전하고 책임감 있는 혁신을 위한 기초를 제공합니다.