Xuandong Zhao, Sam Gunn, Miranda Christ, Jaiden Fairoze, Andres Fabrega, Nicholas Carlini, Sanjam Garg, Sanghyun Hong, Milad Nasr, Florian Tramer, Somesh Jha, Lei Li, Yu-Xiang Wang, Dawn Song
개요
본 논문은 생성형 AI(GenAI)의 출력물이 고품질화됨에 따라 인간이 만든 콘텐츠와의 구분이 어려워지는 문제에 대한 해결책으로서 워터마킹 기법에 대한 포괄적인 개요를 제시한다. GenAI 생성 콘텐츠에 숨겨진 신호를 삽입하여 AI와 인간이 생성한 콘텐츠를 구별할 수 있도록 하는 워터마킹 기법의 필요성을 역사적, 규제적 관점에서 논의하고, 워터마킹 기법의 정의, 바람직한 특성, 주요 목표 및 위협 모델을 공식화한다. 또한, 다양한 공격에 견딜 수 있는 강력한 워터마킹 기법 개발에 대한 통찰력을 제공하는 실용적인 평가 전략을 탐구하고, 최근 대표적인 연구들을 검토하며, 미해결 과제와 잠재적인 연구 방향을 논의한다. 이는 GenAI의 워터마킹에 대한 철저한 이해를 제공하여 연구자들이 워터마킹 방법과 응용 프로그램을 발전시키고 정책 입안자들이 GenAI의 광범위한 영향에 대처하는 데 도움을 주는 것을 목표로 한다.
시사점, 한계점
•
시사점:
◦
생성형 AI의 안전성 및 신뢰성 향상에 기여할 수 있는 워터마킹 기법의 중요성을 강조한다.