본 논문은 대규모 언어 모델(LLM) 기반의 인공지능(AI) 심리 치료사의 확산으로 인한 잠재적 위험(사용자 피해, 자살 등)을 다룹니다. 기존 평가 방법의 한계를 지적하며, AI 심리 치료사의 위험을 체계적으로 평가하기 위한 새로운 위험 분류 체계를 제시합니다. 해당 분류 체계는 심리 치료 위험 관련 문헌 검토, 임상 및 법률 전문가 인터뷰, 기존 임상 기준(예: DSM-5) 및 평가 도구(예: NEQ, UE-ATR)를 바탕으로 개발되었으며, 사용자/환자 피해를 식별하고 평가하는 구조적 접근 방식을 제공합니다. 또한, 인간-AI 상담 세션에서의 위험 요소 모니터링 및 AI 심리 치료사의 자동 벤치마킹과 같은 두 가지 사용 사례를 자세히 논의합니다. 이 분류 체계는 AI 기반 정신 건강 지원 분야의 안전하고 책임감 있는 혁신을 위한 기초를 제공합니다.