Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

The Typing Cure: Experiences with Large Language Model Chatbots for Mental Health Support

Created by
  • Haebom

저자

Inhwa Song, Sachin R. Pendse, Neha Kumar, Munmun De Choudhury

개요

본 논문은 심각한 정신적 고통을 겪는 사람들이 정신 건강 지원 도구로 대규모 언어 모델(LLM) 챗봇을 점차 사용하는 현상에 대한 연구이다. 소셜 미디어에서 일부 사용자들에게 챗봇이 생명을 구하는 역할을 했다는 논의가 있지만, 일반적인 목적의 LLM 챗봇은 책임감 있게 설계되지 않으면 사용자의 안전을 위협할 수 있는 상당한 위험성도 지닌다는 증거가 제시되고 있다. 연구진은 전 세계적으로 다양한 배경을 가진 21명의 개인 인터뷰를 바탕으로 LLM 챗봇을 정신 건강 지원에 사용한 사람들의 경험을 조사하여 사용자들이 챗봇에게 어떻게 고유한 지원 역할을 부여하고, 일상적인 돌봄의 공백을 메우며, 챗봇으로부터 지원을 구할 때 관련 문화적 제약을 어떻게 극복하는지 분석하였다. 효과적인 지원에 대한 심리 치료 문헌을 바탕으로 분석을 진행하며, 정신 건강 맥락에서 AI를 치료적 가치에 맞추는 치료적 정렬(therapeutic alignment) 개념을 제시한다. 마지막으로 LLM 챗봇 및 기타 AI 정신 건강 지원 도구의 윤리적이고 효과적인 사용을 위한 설계자를 위한 권장 사항을 제시한다.

시사점, 한계점

시사점:
LLM 챗봇이 정신 건강 지원에 대한 새로운 접근 방식을 제공하며, 일부 사용자에게는 생명선 역할을 할 수 있음을 보여줌.
사용자들이 챗봇을 통해 정신 건강 지원의 공백을 메우고 고유한 방식으로 활용하는 다양한 사례 제시.
AI 기반 정신 건강 지원 도구 설계 시 '치료적 정렬' 개념을 도입하여 윤리적이고 효과적인 시스템 개발 방향 제시.
LLM 챗봇의 윤리적이고 효과적인 사용을 위한 설계자를 위한 구체적인 권고안 제시.
한계점:
표본 크기가 제한적임 (21명).
참가자들의 배경이 다양하지만, 특정 지역이나 인구 통계학적 특성에 편향될 가능성 존재.
인터뷰 기반 연구의 주관적 해석 가능성.
LLM 챗봇의 장기적인 효과 및 위험에 대한 추가적인 연구 필요.
👍