[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Humans learn to prefer trustworthy AI over human partners

Created by
  • Haebom

저자

Yaomin Jiang, Levin Brinkmann, Anne-Marie Nussberger, Ivan Soraperra, Jean-Fran\c{c}ois Bonnefon, Iyad Rahwan

개요

본 논문은 대규모 언어 모델(LLM) 기반 인공 에이전트가 인간과 협력 파트너로서 경쟁하는 상황에서 인간의 파트너 선택 전략과 AI 유발 경쟁 압력 하의 적응 과정을 연구한 결과를 제시합니다. 인간과 LLM 기반 봇으로 구성된 혼합 사회를 모사한 의사소통 기반 파트너 선택 게임을 통해 세 가지 실험(N=975)을 수행하였습니다. 실험 결과, 봇은 인간보다 친사회적이고 언어적으로 구분 가능했지만, 정체성이 숨겨진 경우 우선적으로 선택받지 않았습니다. 인간은 봇의 행동을 인간의 행동으로 오인하는 경향을 보였고, 반대로도 마찬가지였습니다. 봇의 정체성을 공개하자 봇의 초기 선택 확률은 감소했지만, 인간이 각 파트너 유형의 행동에 대해 학습할 수 있도록 하여 시간이 지남에 따라 인간보다 경쟁 우위를 점하게 되었습니다. 결론적으로, AI는 혼합 사회의 사회적 상호 작용을 재편성하고, 더 효과적이고 협력적인 혼합 시스템 설계에 대한 시사점을 제공합니다.

시사점, 한계점

시사점:
AI 에이전트가 인간과의 협력 관계에서 경쟁력을 갖추고 있음을 보여줌.
인간은 AI의 정체성을 인지하지 못하는 경우 AI의 행동을 인간의 행동으로 오인하는 경향이 있음.
AI의 정체성 공개는 초기에는 불리하지만, 장기적으로는 인간의 학습을 통해 AI의 경쟁력을 높일 수 있음.
AI와 인간의 협력 시스템 설계에 대한 중요한 시사점 제공.
한계점:
실험 환경이 특정 게임 환경에 국한되어 실제 사회 상황으로의 일반화에 제한이 있을 수 있음.
사용된 LLM의 특성이 결과에 영향을 미칠 수 있음. 다른 LLM을 사용한 추가 연구가 필요함.
인간 참가자의 다양성이 고려되지 않아 일반화 가능성에 한계가 있을 수 있음.
장기적인 상호 작용 및 관계 발전에 대한 고려가 부족함.
👍