Cette étude propose un cadre pour affiner un modèle de langage à grande échelle (LLM) utilisant la confidentialité différentielle (DP) afin de détecter de multiples anomalies dans le texte des comptes rendus de radiologie. En injectant du bruit compensé lors de l'affinement, nous visons à atténuer les risques de confidentialité associés aux données sensibles des patients et à prévenir les fuites de données tout en maintenant les performances de classification. À l'aide des jeux de données MIMIC-CXR et CT-RATE (50 232 comptes rendus collectés de 2011 à 2019), nous avons affiné trois architectures de modèles : BERT-medium, BERT-small et ALBERT-base, en utilisant l'adaptation de faible rang à la confidentialité différentielle (DP-LoRA). Nous avons évalué les performances du modèle avec différents budgets de confidentialité (0,01, 0,1, 1,0 et 10,0) à l'aide de scores F1 pondérés afin d'analyser quantitativement le compromis confidentialité-utilité.