Este artículo argumenta que los conceptos existentes de protección de datos se han vuelto inadecuados debido al cambio significativo en el significado y el valor de los datos en la era de la IA generativa. El papel crucial que desempeñan los datos a lo largo del ciclo de vida de la IA resalta la necesidad de proteger diversas formas de datos, incluyendo datos de entrenamiento, indicaciones y resultados. Para abordar esto, este artículo propone una taxonomía compuesta por cuatro niveles: inusabilidad, privacidad, trazabilidad y borrado, para capturar las diversas necesidades de protección de datos de los modelos y sistemas modernos de IA generativa. Este marco facilita una comprensión estructural de las compensaciones entre la usabilidad y el control de los datos a lo largo de todo el proceso de IA, incluyendo conjuntos de datos de entrenamiento, ponderaciones de modelos, indicaciones del sistema y contenido generado por IA. También analiza enfoques técnicos representativos en cada nivel e identifica puntos ciegos regulatorios que exponen activos críticos. En definitiva, este artículo proporciona un marco estructural para alinear las futuras tecnologías y gobernanza de la IA con prácticas de datos confiables, brindando orientación oportuna a desarrolladores, investigadores y reguladores por igual.