본 연구는 방사선학 보고서 텍스트에서 다중 이상 감지를 수행하기 위해 차등적 프라이버시(DP)를 적용하여 대규모 언어 모델(LLM)을 미세 조정하는 프레임워크를 제안합니다. 미세 조정 중 보정된 노이즈를 주입함으로써, 민감한 환자 데이터와 관련된 개인 정보 보호 위험을 완화하고 데이터 유출을 방지하면서 분류 성능을 유지하고자 합니다. MIMIC-CXR 및 CT-RATE 데이터셋(2011년~2019년 수집, 50,232개 보고서)을 사용하여 BERT-medium, BERT-small, ALBERT-base 세 가지 모델 아키텍처에 대해 차등적 프라이버시 저랭크 적응(DP-LoRA)을 이용하여 미세 조정을 수행했습니다. 다양한 프라이버시 예산(0.01, 0.1, 1.0, 10.0)에서 모델 성능을 가중 F1 점수로 평가하여 프라이버시-유용성 절충 관계를 정량적으로 분석했습니다.