Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Simulating Misinformation Propagation in Social Networks using Large Language Models

Created by
  • Haebom
Category
Empty

저자

Raj Gaurav Maurya, Vaibhav Shukla, Raj Abhijit Dandekar, Rajat Dandekar, Sreedath Panat

개요

소셜 미디어에서 허위 정보가 확산되는 메커니즘을 연구하기 위해, 연구진은 LLM(Large Language Model) 페르소나를 사용하여 사용자 수준의 편향, 이념적 정렬, 신뢰 휴리스틱을 모방하는 합성 에이전트를 모델링했습니다. 연구는 이러한 에이전트 네트워크를 통해 허위 정보가 어떻게 확산되는지 시뮬레이션하고 분석하기 위해 감사자-노드 프레임워크를 도입했습니다. 뉴스 기사가 페르소나 조건 LLM 노드 네트워크를 통해 전파되고, 각 노드는 수신된 콘텐츠를 다시 작성합니다. 질문-응답 기반 감사자는 각 단계에서 사실적 충실도를 측정하여 허위 정보 왜곡을 추적합니다. 연구진은 허위 정보 지수와 허위 정보 전파율을 공식화하여 최대 30번의 순차적 재작성에서 사실적 저하를 정량화했습니다. 21개의 페르소나를 대상으로 10개 도메인에서 수행한 실험 결과, 정체성 및 이념 기반 페르소나가 특히 정치, 마케팅, 기술 분야에서 허위 정보 가속기 역할을 한다는 것을 확인했습니다. 반면, 전문가 중심 페르소나는 사실적 안정성을 유지했습니다. 제어된-무작위 분기 시뮬레이션을 통해 초기 왜곡이 발생하면 이질적 페르소나 상호 작용이 허위 정보를 선전 수준의 왜곡으로 빠르게 확대한다는 것을 보여주었습니다. 연구 결과는 LLM이 인간과 유사한 편향의 프록시이자 정보 충실도를 추적할 수 있는 감사자로서의 이중 역할을 수행한다는 것을 보여줍니다.

시사점, 한계점

시사점:
LLM을 활용하여 허위 정보 확산 메커니즘을 모델링하고 시뮬레이션하는 새로운 프레임워크 제시.
정체성 및 이념 기반 페르소나가 허위 정보 확산을 가속화하는 역할을 확인.
전문가 중심 페르소나가 사실적 안정성을 유지하는 것을 확인.
초기 왜곡 발생 시 이질적 페르소나 상호 작용이 허위 정보 확산을 심화시키는 것을 확인.
LLM을 허위 정보 연구 및 완화 도구로 활용할 수 있는 가능성 제시.
한계점:
연구 범위가 특정 도메인(정치, 마케팅, 기술 등)에 제한될 수 있음.
페르소나 모델링의 정확성과 현실성이 제한적일 수 있음.
시뮬레이션 환경이 실제 소셜 미디어 환경의 복잡성을 완전히 반영하지 못할 수 있음.
허위 정보 심각도 분류가 주관적일 수 있음.
👍