본 논문은 AI 생성 이미지의 급속한 발전과 그로 인한 사회적 위험(특히 딥페이크)에 초점을 맞추고 있습니다. AI 생성 콘텐츠의 위험을 완화하기 위해 도입된 워터마킹 및 AI 라벨링의 현황을, 2024년 EU AI 법안을 중심으로 법적 분석과 실증적 분석을 통해 평가합니다. 50개의 널리 사용되는 AI 이미지 생성 시스템에 대한 실증 분석을 통해, 적절한 워터마킹(38%) 및 딥페이크 라벨링(8%)을 구현한 시스템이 소수에 불과함을 밝히고, 법적 요구사항의 효과적인 이행을 위한 개선 방안과 워터마크 탐지 도구를 제시합니다. EU AI 법안의 4가지 생성형 AI 이미지 배포 시나리오를 제시하고 각 시나리오에 대한 법적 의무를 설명합니다.