Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Security Benefits and Side Effects of Labeling AI-Generated Images

Created by
  • Haebom

저자

Sandra Holtervennhoff, Jonas Ricker, Maike M. Raphael, Charlotte Schwedes, Rebecca Weil, Asja Fischer, Thorsten Holz, Lea Schonherr, Sascha Fahl

개요

본 논문은 생성형 인공지능(AI)이 생성한 이미지에 대한 표시(labeling)가 AI 생성 가짜 정보의 위험을 줄이는 데 효과적인지 여부를 연구합니다. 미국과 유럽의 참가자 1300명 이상을 대상으로 한 설문조사와 5개의 포커스 그룹을 통해, AI 이미지 라벨링에 대한 사용자의 의견과 기대를 정성적 및 정량적으로 분석합니다. 특히, 라벨의 단순성, 투명성, 신뢰성이 라벨 채택 성공에 미치는 영향을 고려합니다. 설문조사 결과, 라벨이 붙은 AI 생성 이미지를 사용한 부정확한 주장은 라벨이 없는 경우보다 신뢰도가 낮게 평가되었지만, 정확한 주장에 라벨이 붙으면 신뢰도가 낮아지는 역효과도 나타났습니다. 또한, 사람이 만든 이미지가 라벨이 있을 때 더 신뢰할 수 있다고 인식되는 현상도 발견되었습니다.

시사점, 한계점

시사점:
AI 생성 이미지 라벨링이 가짜 정보 식별에 도움이 될 수 있지만, 사용자의 과도한 의존 및 예상치 못한 부정적 효과(정확한 정보의 신뢰도 저하, 사람이 만든 가짜 정보의 신뢰도 증가)를 야기할 수 있음을 시사합니다.
AI 라벨링 정책의 실효성을 평가하기 위해서는 사용자의 인식 및 행동 변화에 대한 심층적인 이해가 필요함을 강조합니다.
라벨링 정책 설계 시 단순성, 투명성, 신뢰성을 고려해야 함을 보여줍니다.
한계점:
연구 대상이 이미지에 국한되어, 다른 형태의 AI 생성 콘텐츠(텍스트, 비디오 등)에는 적용이 제한적일 수 있습니다.
설문조사 참여자의 특징(미국과 유럽 거주자)이 연구 결과의 일반화 가능성에 영향을 미칠 수 있습니다.
라벨링 방식의 다양성(라벨의 형태, 위치, 내용 등)에 따른 효과 차이에 대한 분석이 부족합니다.
장기적인 효과 및 라벨링에 대한 사용자의 적응 과정에 대한 고려가 부족합니다.
👍