본 논문은 대화형 AI 시스템의 발전으로 인해 확장된 설득의 영역과 그로 인한 기회와 위험을 다룬다. AI를 이용한 설득은 유익한 응용이 가능하지만, 조작과 비윤리적인 영향력 행사를 통한 위협도 제기한다. 또한 AI 시스템은 설득자일 뿐만 아니라 설득의 대상이기도 하며, 적대적 공격과 편향 강화에 취약하다. 본 논문에서는 계산적 설득에 대한 포괄적인 개요를 제공하며, 세 가지 관점 (AI as a Persuader, AI as a Persuadee, AI as a Persuasion Judge)으로 구조화하여 AI가 생성하는 설득적 콘텐츠와 그 응용, AI의 영향과 조작에 대한 취약성, 설득 전략 평가, 조작 감지, 윤리적 설득 보장에서 AI의 역할을 분석한다. 계산적 설득 연구에 대한 분류 체계를 제시하고, 설득력 평가, 조작적 설득 완화, 책임감 있는 AI 기반 설득 시스템 개발 등 주요 과제를 논의하며, 점점 더 능력 있는 언어 모델이 제기하는 위험을 해결하면서 AI 기반 설득의 안전성, 공정성 및 효과성을 높이기 위한 미래 연구 방향을 제시한다.