Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

LLM Agents Display Human Biases but Exhibit Distinct Learning Patterns

Created by
  • Haebom
Category
Empty

저자

Idan Horowitz, Ori Plonsky

개요

본 논문은 경험에 기반한 반복적 선택과 피드백 학습을 포함하는 의사결정 과제에서 대규모 언어 모델(LLM)의 선택 패턴을 조사하고, 그 행동을 인간 참가자와 비교합니다. 집계적으로 LLM은 인간과 유사한 행동적 편향(희귀 사건의 과소평가 및 상관 효과)을 보이는 것으로 나타났습니다. 그러나 선택 패턴에 대한 보다 세부적인 분석 결과, 이러한 현상이 발생하는 이유는 매우 다릅니다. LLM은 인간과 달리 강한 최근성 편향을 나타내는 반면, 인간은 더 정교한 방식으로 반응하는 것으로 보입니다. 이러한 상이한 과정은 평균적으로 유사한 행동으로 이어질 수 있지만, 최근 사건을 조건으로 하는 선택 패턴은 두 집단 간에 크게 다릅니다. 특히, "놀라움이 변화를 촉발한다"와 "희귀 사건의 파동형 최근성 효과"와 같은 현상은 인간에게서 견고하게 관찰되지만, LLM에서는 전혀 나타나지 않습니다.

시사점, 한계점

시사점: LLM이 학습 환경에서 인간을 시뮬레이션하고 예측하는 데 사용되는 데 대한 한계를 보여줍니다. 인간의 의사결정 경향을 복제하는지 여부를 조사할 때 LLM의 행동에 대한 정교한 분석이 필요함을 강조합니다. LLM과 인간의 의사결정 과정의 차이를 명확히 함으로써 인공지능 모델 개발 및 인간 행동 이해에 대한 시사점을 제공합니다.
한계점: LLM의 최근성 편향에 대한 심층적인 원인 분석이 부족할 수 있습니다. 본 연구에서 사용된 특정 LLM 및 과제의 일반화 가능성에 대한 추가적인 검증이 필요합니다. 인간 참가자의 표본 크기 및 다양성에 대한 정보가 부족하여 결과의 일반화 가능성에 대한 제한이 있을 수 있습니다.
👍