Este estudio propone un marco para el ajuste fino de un modelo de lenguaje a gran escala (LLM) mediante privacidad diferencial (PD) para la detección de múltiples anomalías en el texto de informes radiológicos. Mediante la inyección de ruido compensado durante el ajuste fino, buscamos mitigar los riesgos de privacidad asociados con datos sensibles de pacientes y prevenir la fuga de datos, manteniendo al mismo tiempo el rendimiento de la clasificación. Utilizando los conjuntos de datos MIMIC-CXR y CT-RATE (50.232 informes recopilados entre 2011 y 2019), ajustamos tres arquitecturas de modelo: BERT-mediano, BERT-pequeño y ALBERT-base mediante adaptación de bajo rango de privacidad diferencial (PD-LoRA). Evaluamos el rendimiento del modelo bajo diferentes presupuestos de privacidad (0,01, 0,1, 1,0 y 10,0) utilizando puntuaciones F1 ponderadas para analizar cuantitativamente el equilibrio entre privacidad y utilidad.