Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Exploring User Security and Privacy Attitudes and Concerns Toward the Use of General-Purpose LLM Chatbots for Mental Health

Created by
  • Haebom

저자

Jabari Kwesi, Jiaxun Cao, Riya Manchanda, Pardis Emami-Naeini

개요

본 논문은 일반 목적의 대규모 언어 모델(LLM) 기반 대화형 에이전트를 사용하여 정신 건강 관리 및 개선을 시도하는 사용자들의 개인 정보 및 보안 우려, 태도, 기대에 대한 경험적 연구 부족을 다룹니다. 미국 참가자 21명을 대상으로 한 반구조화된 인터뷰를 통해, 참가자들이 LLM의 인간과 같은 공감 능력을 인간과 같은 책임감과 혼동하고, 일반적인 LLM 기반 챗봇과의 상호 작용이 면허를 가진 치료사와의 정보 공개와 같은 규정(예: HIPAA)에 의해 보호된다고 잘못 생각하는 등 중요한 오해와 일반적인 위험 인식 부족을 확인했습니다. 또한, 정서적 또는 심리적 정보 공개는 재정적 또는 위치 기반 데이터와 같은 더 구체적인 정보 형태에 비해 과소평가되는 "무형의 취약성" 개념을 제시합니다. 이를 해결하기 위해 일반 목적의 LLM 기반 챗봇을 사용한 사용자 정신 건강 정보 공개를 더 효과적으로 보호하기 위한 권장 사항을 제안합니다.

시사점, 한계점

시사점: 일반 목적의 LLM 기반 챗봇 사용자의 개인정보보호 및 보안에 대한 인식 부족과 오해를 밝혀냄. "무형의 취약성" 개념을 제시하여 정신 건강 정보의 취약성을 강조. LLM 기반 챗봇을 통한 정신 건강 정보 보호를 위한 권장 사항 제시.
한계점: 소규모(21명)의 미국 참가자를 대상으로 한 인터뷰 연구로 일반화 가능성에 한계. 다양한 연령대, 문화적 배경, 정신 건강 상태를 가진 사용자들을 포함하지 못했을 가능성. 제시된 권장 사항의 실효성에 대한 검증이 부족.
👍