Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Building Resilient Information Ecosystems: Large LLM-Generated Dataset of Persuasion Attacks

Created by
  • Haebom
Category
Empty

저자

Hsien-Te Kao, Aleksey Panasyuk, Peter Bautista, William Dupree, Gabriel Ganberg, Jeffrey M. Beaubien, Laura Cassani, Svitlana Volkova

개요

본 논문은 생성형 AI 모델의 발전으로 인해 공공 기관의 메시지에 대항하는 설득 공격의 위협이 증가함에 따라, LLM(Large Language Model)으로 생성된 설득 공격 데이터셋을 소개합니다. 이 데이터셋은 GPT-4, Gemma 2, Llama 3.1을 사용하여 10개 기관의 972개 보도 자료에 대한 134,136개의 설득 공격으로 구성됩니다. 공격은 보도 자료 및 소셜 미디어 게시물 형태로 제공되며, SemEval 2023 Task 3의 23가지 설득 기법을 활용합니다. 또한, 각 모델의 설득 공격이 도덕적 공명을 어떻게 활용하는지 분석하여, 기관의 효과적이고 탄력적인 커뮤니케이션 전략 개발을 위한 기반을 마련합니다.

시사점, 한계점

시사점:
LLM 기반의 설득 공격의 실제적인 위협을 제시하고, 이를 방어하기 위한 데이터셋 구축의 필요성을 강조함.
각 LLM 모델별 설득 전략의 차이점을 분석하여, 다양한 공격 유형에 대한 이해를 높임.
기관의 평판을 보호하고 정보 생태계 내에서 효과적인 커뮤니케이션을 유지하기 위한 사전 방어 전략 개발의 기반을 마련함.
한계점:
제한된 수의 기관 및 설득 기법을 사용하여, 데이터셋의 일반화 가능성에 한계가 있을 수 있음.
GPT-4, Gemma 2, Llama 3.1에 국한된 모델을 사용함으로, 다른 LLM 모델의 공격 전략을 포괄하지 못함.
도덕적 공명 분석 외에, 설득 공격의 성공 여부 및 영향력에 대한 정량적인 평가가 부족함.
👍