Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Can A Society of Generative Agents Simulate Human Behavior and Inform Public Health Policy? A Case Study on Vaccine Hesitancy

Created by
  • Haebom
Category
Empty

저자

Abe Bohan Hou, Hongru Du, Yichen Wang, Jingyu Zhang, Zixiao Wang, Paul Pu Liang, Daniel Khashabi, Lauren Gardner, Tianxing He

개요

본 논문은 생성형 에이전트와 대규모 언어 모델(LLM)을 이용하여 샌드박스 사회를 시뮬레이션하고, 공공 정책 평가를 위한 실제 인간 실험에 대한 과도한 의존성을 줄일 수 있는지 여부를 조사합니다. 백신 접종 거부 현상을 사례 연구로 삼아 건강 관련 의사결정 시뮬레이션의 실현 가능성을 연구합니다. VacSim이라는 프레임워크를 통해 인구통계학적 데이터를 기반으로 100명의 생성형 에이전트를 생성하고, 사회적 네트워크를 통해 연결하여 백신 태도를 모델링합니다. 여러 공중보건 개입을 설계 및 평가하여 백신 접종 거부를 완화하고, 실제 결과와 일치하도록 시뮬레이션 워밍업 및 태도 조절을 도입합니다. Llama 및 Qwen과 같은 모델을 사용한 실험을 통해 LLM이 인간 행동의 특정 측면을 시뮬레이션할 수 있음을 보여주지만, 인구통계학적 프로필과의 일관성 없는 응답과 같은 실제 세계 정렬 문제도 강조합니다. 이 연구는 확정적인 정책 지침을 제공하는 것이 아니라, 정책 개발을 위한 사회 시뮬레이션 연구를 촉구하는 것입니다.

시사점, 한계점

시사점:
LLM 기반 생성형 에이전트를 활용한 사회 시뮬레이션을 통해 공공 정책 평가에 대한 실제 인간 실험 의존도를 줄일 수 있는 가능성을 제시.
백신 접종 거부와 같은 복잡한 사회 현상에 대한 정책적 개입 효과를 사전에 예측하고 평가할 수 있는 새로운 방법론 제시.
LLM 기반 시뮬레이션을 활용한 정책 개발의 가능성을 보여줌.
한계점:
LLM 시뮬레이션 결과의 실제 세계와의 정합성 문제 (인구통계학적 프로필과의 불일치 등).
아직 초기 단계 연구로, 확정적인 정책 지침을 제공하기에는 한계가 있음.
LLM의 특성으로 인한 시뮬레이션 결과의 편향 가능성.
사용된 에이전트 수가 제한적임 (100명).
👍