Cet article soutient que les concepts existants de protection des données sont devenus inadéquats en raison de l'évolution significative de la signification et de la valeur des données à l'ère de l'IA générative. Le rôle crucial des données tout au long du cycle de vie de l'IA souligne la nécessité de protéger diverses formes de données, notamment les données d'entraînement, les invites et les résultats. Pour y remédier, cet article propose une taxonomie composée de quatre niveaux – inutilisabilité, confidentialité, traçabilité et effacement – afin de saisir les divers besoins de protection des données des modèles et systèmes d'IA générative modernes. Ce cadre facilite une compréhension structurelle des compromis entre utilisabilité et contrôle des données sur l'ensemble du pipeline d'IA, y compris les jeux de données d'entraînement, les pondérations des modèles, les invites système et le contenu généré par l'IA. Il analyse également des approches techniques représentatives à chaque niveau et identifie les angles morts réglementaires qui exposent les actifs critiques. Enfin, cet article fournit un cadre structurel pour aligner les futures technologies et la gouvernance de l'IA sur des pratiques de données fiables, fournissant des orientations opportunes aux développeurs, aux chercheurs et aux régulateurs.