Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Must Read: A Systematic Survey of Computational Persuasion

Created by
  • Haebom

저자

Nimet Beyza Bozdag, Shuhaib Mehri, Xiaocheng Yang, Hyeonjeong Ha, Zirui Cheng, Esin Durmus, Jiaxuan You, Heng Ji, Gokhan Tur, Dilek Hakkani-Tur

개요

본 논문은 대화형 AI 시스템의 발전으로 인해 확장된 설득의 영역과 그로 인한 기회와 위험을 다룬다. AI를 이용한 설득은 유익한 응용이 가능하지만, 조작과 비윤리적인 영향력 행사를 통한 위협도 제기한다. 또한 AI 시스템은 설득자일 뿐만 아니라 설득의 대상이기도 하며, 적대적 공격과 편향 강화에 취약하다. 본 논문에서는 계산적 설득에 대한 포괄적인 개요를 제공하며, 세 가지 관점 (AI as a Persuader, AI as a Persuadee, AI as a Persuasion Judge)으로 구조화하여 AI가 생성하는 설득적 콘텐츠와 그 응용, AI의 영향과 조작에 대한 취약성, 설득 전략 평가, 조작 감지, 윤리적 설득 보장에서 AI의 역할을 분석한다. 계산적 설득 연구에 대한 분류 체계를 제시하고, 설득력 평가, 조작적 설득 완화, 책임감 있는 AI 기반 설득 시스템 개발 등 주요 과제를 논의하며, 점점 더 능력 있는 언어 모델이 제기하는 위험을 해결하면서 AI 기반 설득의 안전성, 공정성 및 효과성을 높이기 위한 미래 연구 방향을 제시한다.

시사점, 한계점

시사점:
대화형 AI 시스템의 발전으로 인한 설득의 확장된 영역과 그에 따른 기회와 위험에 대한 포괄적인 이해 제공.
AI가 설득자, 설득 대상, 설득 판단자로서의 역할을 분석하는 다각적인 관점 제시.
계산적 설득 연구를 위한 분류 체계 제안.
책임감 있는 AI 기반 설득 시스템 개발을 위한 미래 연구 방향 제시.
AI 설득의 윤리적 문제점과 해결 방안 모색.
한계점:
설득의 본질적인 주관성과 맥락 의존성으로 인해 설득력을 평가하는 데 어려움이 있음.
조작적인 설득을 완화하고 AI 시스템의 편향을 해결하는 방법에 대한 추가 연구 필요.
AI 기반 설득 시스템의 안전성과 공정성을 보장하기 위한 기술적, 윤리적 가이드라인 부족.
급속한 기술 발전 속도에 비해 설득에 대한 이해가 여전히 제한적임.
👍