Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Positioning AI Tools to Support Online Harm Reduction Practice: Applications and Design Directions

Created by
  • Haebom

저자

Kaixuan Wang, Jason T. Jacques, Chenxin Diao, Carl-Cyril J Dreue

개요

본 논문은 약물 사용자(PWUD)의 건강 결과에 직접적인 영향을 미칠 수 있는 정확하고 실행 가능한 피해 감소 정보에 대한 접근성 문제를 다룹니다. 기존 온라인 채널은 적응성, 접근성의 한계와 낙인의 만연한 영향으로 다양하고 역동적인 PWUD의 요구를 충족하지 못하는 경우가 많습니다. 대규모 언어 모델(LLM)은 정보 제공을 향상시킬 수 있는 새로운 기회를 제공하지만, 이러한 고위험 영역에서의 적용은 아직 미개척이며 사회기술적 과제를 안고 있습니다. 본 연구는 LLM이 PWUD의 정보 요구를 지원하도록 책임감 있게 설계될 수 있는 방법을 조사합니다. 학계, 피해 감소 실무자, 온라인 커뮤니티 관리자 등 다양한 이해관계자 그룹이 참여한 질적 워크숍을 통해 LLM의 기능을 탐구하고, 잠재적 활용 사례를 파악하고, 핵심 설계 고려 사항을 명확히 했습니다. LLM이 반응적이고 다국어이며 잠재적으로 낙인이 덜한 상호 작용을 제공함으로써 기존 정보 장벽을 해결할 수 있지만, 그 효과는 피해 감소 원칙과의 윤리적 일치, 뉘앙스 있는 상황 이해, 효과적인 의사소통, 명확하게 정의된 운영 경계와 관련된 과제를 극복하는 데 달려 있습니다. 전문가 및 PWUD와의 협력적 공동 설계를 강조하는 설계 경로를 제시하여 도움이 되고 안전하며 책임감 있게 관리되는 LLM 시스템을 개발합니다. 본 연구는 피해 감소 생태계 내에서 지원 도구로서 LLM을 책임감 있게 개발하기 위한 경험적으로 근거한 통찰력과 실행 가능한 설계 고려 사항을 제공합니다.

시사점, 한계점

시사점:
LLM이 PWUD의 정보 접근성 향상에 기여할 수 있는 잠재력을 제시.
다양한 이해관계자의 참여를 통한 책임감 있는 LLM 개발 방향 제시.
피해 감소 원칙과의 윤리적 조화, 상황 이해, 효과적 의사소통 등 핵심 설계 고려 사항 제시.
협력적 공동 설계를 통한 안전하고 효과적인 LLM 시스템 개발 가능성 확인.
한계점:
본 연구는 질적 워크숍에 기반한 결과이므로 일반화에 한계 존재.
LLM의 윤리적 문제 및 기술적 한계에 대한 충분한 해결책 제시는 부족.
실제 LLM 시스템 구축 및 평가에 대한 구체적인 내용은 제한적.
PWUD의 다양한 요구 사항을 완전히 포괄하지 못할 가능성 존재.
👍