Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

"What's Up, Doc?": Analyzing How Users Seek Health Information in Large-Scale Conversational AI Datasets

Created by
  • Haebom

저자

Akshay Paruchuri, Maryam Aziz, Rohit Vartak, Ayman Ali, Best Uchehara, Xin Liu, Ishan Chatterjee, Monica Agrawal

개요

본 논문은 대규모 언어 모델(LLM) 기반의 대화형 챗봇을 통해 의료 정보를 얻고자 하는 사람들이 증가하는 추세 속에서, 이러한 대화의 특성과 내재된 위험을 탐구한 연구입니다. 연구진은 대규모 대화형 AI 데이터셋을 필터링하여 25,000개의 사용자 메시지로 구성된 11,000개의 실제 세계 대화로 이루어진 HealthChat-11K라는 정제된 데이터셋을 구축했습니다. 이 데이터셋과 임상의가 주도한 사용자와 LLM의 상호작용 분류 체계를 사용하여 21개의 서로 다른 의료 전문 분야에 걸쳐 사용자 상호작용을 체계적으로 연구했습니다. 분석 결과, 사용자가 의료 정보를 찾는 방법과 이유에 대한 통찰력(흔한 상호작용, 불완전한 맥락의 사례, 정서적 행동, 아첨을 유도할 수 있는 상호작용(예: 유도 질문) 등)을 밝혀냈으며, 이는 대화형 AI로 배포되는 LLM의 의료 지원 기능 개선의 필요성을 강조합니다. 코드와 분석 결과 및 정제된 데이터셋을 결합하는 방법에 대한 자료는 GitHub에서 확인할 수 있습니다.

시사점, 한계점

시사점:
실제 세계 의료 관련 LLM 사용자 상호작용에 대한 귀중한 통찰력을 제공하는 HealthChat-11K 데이터셋을 구축했습니다.
사용자가 의료 정보를 얻기 위해 LLM과 상호 작용하는 방식, 빈번한 상호작용 유형, 불완전한 맥락, 정서적 행동 및 아첨 유도 행위 등을 밝혔습니다.
LLM 기반 의료 챗봇의 개선 방향을 제시하여 안전하고 효과적인 의료 정보 접근성 향상에 기여할 수 있습니다.
한계점:
데이터셋의 규모(11,000개의 대화)가 모든 의료 전문 분야와 사용자 유형을 완벽하게 포괄하기에는 제한적일 수 있습니다.
데이터셋의 편향성(특정 사용자 유형이나 의료 분야에 편중될 가능성)이 연구 결과의 일반화 가능성에 영향을 줄 수 있습니다.
LLM의 응답의 정확성이나 적절성에 대한 평가가 부족합니다. 단순히 사용자와의 상호작용 패턴만 분석했을 뿐입니다.
👍