본 논문은 생성형 인공지능(AI) 시대에 데이터의 의미와 가치가 크게 변화했음을 강조하며, 기존의 데이터 보호 개념이 부족함을 지적합니다. AI 수명주기 전반에 걸쳐 데이터가 중요한 역할을 하므로, 훈련 데이터, 프롬프트, 출력물 등 다양한 단계에서 데이터 보호가 필요합니다. 이에 따라, 비사용성, 개인정보 보호, 추적성, 삭제 가능성 등 네 가지 수준의 분류 체계를 제시하여 현대 생성형 AI 모델 및 시스템에서 발생하는 다양한 보호 요구 사항을 포착합니다. 이러한 체계는 훈련 데이터 세트, 모델 가중치, 시스템 프롬프트 및 AI 생성 콘텐츠를 포함한 전체 AI 파이프라인에서 데이터 유용성과 제어 간의 상충 관계에 대한 구조적인 이해를 제공하며, 각 수준에서의 대표적인 기술적 접근 방식을 분석하고 규제의 사각지대를 밝힙니다. 궁극적으로 미래 AI 기술과 거버넌스를 신뢰할 수 있는 데이터 관행과 조율하기 위한 구조적 틀을 제공하여 개발자, 연구자 및 규제 당국에 시기 적절한 지침을 제공합니다.