본 논문은 일반 목적의 대규모 언어 모델(LLM) 기반 대화형 에이전트를 사용하여 정신 건강 관리 및 개선을 시도하는 사용자들의 개인 정보 및 보안 우려, 태도, 기대에 대한 경험적 연구 부족을 다룹니다. 미국 참가자 21명을 대상으로 한 반구조화된 인터뷰를 통해, 참가자들이 LLM의 인간과 같은 공감 능력을 인간과 같은 책임감과 혼동하고, 일반적인 LLM 기반 챗봇과의 상호 작용이 면허를 가진 치료사와의 정보 공개와 같은 규정(예: HIPAA)에 의해 보호된다고 잘못 생각하는 등 중요한 오해와 일반적인 위험 인식 부족을 확인했습니다. 또한, 정서적 또는 심리적 정보 공개는 재정적 또는 위치 기반 데이터와 같은 더 구체적인 정보 형태에 비해 과소평가되는 "무형의 취약성" 개념을 제시합니다. 이를 해결하기 위해 일반 목적의 LLM 기반 챗봇을 사용한 사용자 정신 건강 정보 공개를 더 효과적으로 보호하기 위한 권장 사항을 제안합니다.