본 논문은 대규모 언어 모델(LLM)을 정신 건강 관리 분야에 통합하는 방식에 대한 근본적인 변화를 주장하는 입장 논문입니다. LLM을 단순한 보조 도구가 아닌 공동 창작자로서의 역할을 강조하며, 접근성, 개인 맞춤화, 위기 개입 향상 가능성을 언급합니다. 하지만 편향, 평가, 과도한 의존, 비인간화, 규제 불확실성에 대한 우려로 인해 LLM의 채택이 제한적인 현실을 지적합니다. 이러한 문제를 해결하기 위해 윤리적이고 책임 있는 배포를 위한 SAFE-i(Supportive, Adaptive, Fair, and Ethical Implementation) 가이드라인과 다차원적 인간 중심 평가를 위한 HAAS-e(Human-AI Alignment and Safety Evaluation) 프레임워크라는 두 가지 구조적 경로를 제안합니다. SAFE-i는 데이터 거버넌스, 적응형 모델 엔지니어링, 현실 세계 통합을 위한 청사진을 제공하여 LLM이 임상 및 윤리적 표준과 일치하도록 보장합니다. HAAS-e는 신뢰성, 공감, 문화적 민감성, 실행 가능성을 측정하는 평가 지표를 도입합니다. LLM 기반 정신 건강 지원을 위한 책임감 있고 확장 가능한 모델을 구축하고, AI가 인간 전문 지식을 대체하는 것이 아니라 보완하도록 하는 구조적 접근 방식의 채택을 촉구합니다.