본 논문은 AI 생성 이미지의 발전으로 인해 발생하는 사회적 위험과 진위 판별의 어려움, 특히 딥페이크 기술의 등장에 초점을 맞추고 있습니다. AI 생성 이미지의 위험을 해결하기 위한 주요 메커니즘으로 자리 잡은 워터마킹 기술과, 이를 법적으로 의무화하는 2024년 EU AI 법안을 중심으로 논의를 전개합니다. 논문에서는 50개의 널리 사용되는 AI 이미지 생성 시스템을 실증적으로 분석하고, 이를 EU AI 법안의 법적 분석에 통합하여 각 시스템의 워터마킹 구현 현황을 평가합니다. EU AI 법안 하에서 관련되는 4가지 AI 이미지 생성 시스템 범주를 제시하고, 각 범주에 대한 법적 의무를 명확히 하며, 현재 적절한 워터마킹 방식을 구현하는 제공업체가 소수에 불과함을 밝힙니다.