Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Can Generative AI agents behave like humans? Evidence from laboratory market experiments

Created by
  • Haebom

저자

R. Maria del Rio-Chanona, Marco Pangallo, Cars Hommes

개요

본 논문은 대규모 언어 모델(LLM)이 경제 시장 실험에서 인간의 행동을 재현할 수 있는 잠재력을 탐구합니다. 기존 연구와 달리, 각 LLM의 의사결정이 현재 단계의 시장 가격에 영향을 미치고, 다음 단계의 다른 LLM의 의사결정에 영향을 미치는 동적인 피드백에 초점을 맞춥니다. 연구진은 LLM의 행동을 실험실 환경에서 관찰된 시장 역학과 비교하고, 인간 참가자의 행동과의 일치 여부를 평가합니다. 그 결과 LLM이 인간 참가자와 유사하게 제한된 합리성을 보이며 엄격한 합리적 기대를 따르지 않는다는 것을 보여줍니다. 3개의 이전 시간 단계에 대한 최소한의 컨텍스트 창(즉, 메모리)과 반응 이질성을 포착하는 높은 변동성 설정을 제공함으로써, LLM은 양의 피드백 시장과 음의 피드백 시장 간의 구분과 같은 인간 실험에서 관찰되는 광범위한 추세를 재현할 수 있습니다. 그러나 미세한 수준에서는 차이가 남아 있습니다. LLM은 인간보다 행동의 이질성이 적습니다. 이러한 결과는 LLM이 경제적 맥락에서 현실적인 인간 행동을 시뮬레이션하는 도구로서 유망하지만, 정확성을 높이고 행동 다양성을 증가시키기 위한 추가 연구가 필요함을 시사합니다.

시사점, 한계점

시사점:
LLM이 제한된 합리성을 보이며 인간과 유사한 경제적 의사결정을 모방할 수 있음을 보여줌.
최소한의 메모리와 높은 변동성 설정을 통해 LLM이 인간 실험의 주요 경향을 재현할 수 있음을 확인.
LLM이 경제적 맥락에서 현실적인 인간 행동을 시뮬레이션하는 도구로서 활용될 가능성 제시.
한계점:
LLM이 인간보다 행동의 이질성이 낮음.
LLM의 정확성과 행동 다양성을 높이기 위한 추가 연구 필요.
미세 수준의 행동 차이에 대한 추가 분석 필요.
👍