Sign In

Competing LLM Agents in a Non-Cooperative Game of Opinion Polarisation

Created by
  • Haebom
Category
Empty

저자

Amin Qasmi, Usman Naseem, Mehwish Nasim

개요

본 논문은 사회심리학적 원리(확증편향, 자원 제약, 영향력 패널티)를 통합한 새로운 비협력 게임을 제시하여 여론 형성과 저항을 분석한다. 대규모 언어 모델(LLM) 에이전트들이 여론에 영향을 미치기 위해 경쟁하고, 잘못된 정보를 전파하거나 반박하는 메시지를 생성할 경우 패널티를 부과하는 시뮬레이션을 특징으로 한다. 이 프레임워크는 에이전트의 의사결정 과정에 자원 최적화를 통합한다. 연구 결과, 높은 확증편향은 그룹 내 의견 일치를 강화하지만 전반적인 양극화를 악화시킨다는 것을 보여준다. 반대로, 낮은 확증편향은 의견이 분열되고 개인적 신념의 변화가 제한됨을 나타낸다. 고자원 반박 전략에 과도하게 투자하면 처음에는 여론이 반박 에이전트와 일치할 수 있지만, 자원 고갈이 빠르게 일어나 장기적인 영향력이 감소할 위험이 있다.

시사점, 한계점

시사점:
확증편향의 정도가 여론 형성과 양극화에 미치는 영향을 정량적으로 분석하는 새로운 프레임워크 제시.
자원 제약과 영향력 패널티를 고려하여 현실적인 여론 형성 과정을 모델링.
고자원 반박 전략의 단기적 효과와 장기적 지속가능성에 대한 통찰 제공.
LLM 에이전트를 활용한 시뮬레이션을 통해 복잡한 사회 현상을 효과적으로 분석 가능성 제시.
한계점:
모델의 단순화로 인한 현실과의 차이 존재 가능성 (예: 인간의 감정, 사회적 관계 등 고려하지 않음).
LLM 에이전트의 행동이 실제 인간의 행동과 완전히 일치하지 않을 수 있음.
특정 매개변수 설정에 의존적인 결과 가능성.
다양한 유형의 정보 및 소통 방식을 충분히 반영하지 못할 가능성.
장기적인 여론 변화에 대한 예측의 정확성 검증 필요.
👍