본 논문은 심각한 정신적 고통을 겪는 사람들이 정신 건강 지원 도구로 대규모 언어 모델(LLM) 챗봇을 점차 사용하는 현상에 대한 연구이다. 소셜 미디어에서 일부 사용자들에게 챗봇이 생명을 구하는 역할을 했다는 논의가 있지만, 일반적인 목적의 LLM 챗봇은 책임감 있게 설계되지 않으면 사용자의 안전을 위협할 수 있는 상당한 위험성도 지닌다는 증거가 제시되고 있다. 연구진은 전 세계적으로 다양한 배경을 가진 21명의 개인 인터뷰를 바탕으로 LLM 챗봇을 정신 건강 지원에 사용한 사람들의 경험을 조사하여 사용자들이 챗봇에게 어떻게 고유한 지원 역할을 부여하고, 일상적인 돌봄의 공백을 메우며, 챗봇으로부터 지원을 구할 때 관련 문화적 제약을 어떻게 극복하는지 분석하였다. 효과적인 지원에 대한 심리 치료 문헌을 바탕으로 분석을 진행하며, 정신 건강 맥락에서 AI를 치료적 가치에 맞추는 치료적 정렬(therapeutic alignment) 개념을 제시한다. 마지막으로 LLM 챗봇 및 기타 AI 정신 건강 지원 도구의 윤리적이고 효과적인 사용을 위한 설계자를 위한 권장 사항을 제시한다.