Cet article soutient que le concept traditionnel de protection des données est devenu insuffisant, car la signification et la valeur des données ont fondamentalement changé à l'ère de l'intelligence artificielle générative (IA). Les données jouant un rôle crucial tout au long du cycle de vie de l'IA, il est essentiel de définir clairement le périmètre de la protection des données et de l'appliquer avec rigueur. Par conséquent, cet article propose une taxonomie composée de quatre niveaux : non-utilisabilité, confidentialité, traçabilité et effacement, afin de saisir les divers besoins en matière de protection des données. Ce cadre permet de comprendre structurellement les compromis entre utilisabilité et contrôle des données tout au long du processus d'IA (y compris les jeux de données d'entraînement, les pondérations des modèles, les invites système et le contenu généré par l'IA). Il analyse les approches techniques représentatives à chaque niveau, révèle les angles morts réglementaires où des actifs importants sont exposés et fournit un cadre structurel pour aligner les futures technologies et la gouvernance de l'IA sur des pratiques de données fiables.