यह अध्ययन रेडियोलॉजी रिपोर्ट के पाठ में बहु-विसंगतियों का पता लगाने हेतु विभेदक गोपनीयता (DP) का उपयोग करते हुए एक बड़े पैमाने के भाषा मॉडल (LLM) को परिष्कृत करने हेतु एक रूपरेखा प्रस्तावित करता है। परिष्कृत करने के दौरान क्षतिपूर्ति शोर को शामिल करके, हमारा उद्देश्य संवेदनशील रोगी डेटा से जुड़े गोपनीयता जोखिमों को कम करना और वर्गीकरण प्रदर्शन को बनाए रखते हुए डेटा रिसाव को रोकना है। MIMIC-CXR और CT-RATE डेटासेट (2011 से 2019 तक एकत्रित 50,232 रिपोर्ट) का उपयोग करते हुए, हमने विभेदक गोपनीयता निम्न-रैंक अनुकूलन (DP-LoRA) का उपयोग करके तीन मॉडल आर्किटेक्चर: BERT-मध्यम, BERT-लघु और ALBERT-आधार को परिष्कृत किया। हमने गोपनीयता-उपयोगिता ट्रेडऑफ़ का मात्रात्मक विश्लेषण करने के लिए भारित F1 स्कोर का उपयोग करके विभिन्न गोपनीयता बजटों (0.01, 0.1, 1.0 और 10.0) के तहत मॉडल प्रदर्शन का मूल्यांकन किया।