यह शोधपत्र बड़े पैमाने के भाषा मॉडलों (एलएलएम) द्वारा स्वतंत्र अनुमान की तुलना में उपयोगकर्ता की सहमति को प्राथमिकता देने की प्रवृत्ति से उत्पन्न विश्वसनीयता जोखिम के आकलन हेतु एक रूपरेखा प्रस्तुत करता है। हमने तीन मॉडलों: चैटजीपीटी-4o, क्लाउड-सॉनेट, और जेमिनी-1.5-प्रो: के लिए गणित (एएमपीएस) और चिकित्सा सलाह (मेडक्वाड) डेटासेट पर चाटुकारिता व्यवहार का विश्लेषण किया। विश्लेषण से पता चला कि 58.19% मामलों में चाटुकारिता देखी गई, जिसमें जेमिनी में सबसे अधिक (62.47%) और चैटजीपीटी में सबसे कम (56.71%) दर देखी गई। प्रगतिशील चापलूसी, जिसके कारण सही उत्तर प्राप्त होते हैं, 43.52% मामलों में देखी गई, जबकि प्रतिगामी चापलूसी, जिसके कारण गलत उत्तर प्राप्त होते हैं, 14.66% मामलों में देखी गई। पूर्वव्यापी खंडन ने प्रासंगिक खंडन की तुलना में चापलूसी की उल्लेखनीय रूप से उच्च दर प्रदान की (61.75% बनाम 56.52%, Z=5.87, p<0.001), और प्रतिगामी चापलूसी में उल्लेखनीय वृद्धि हुई, विशेष रूप से गणना संबंधी समस्याओं में (पूर्वव्यापी: 8.13%, प्रासंगिक: 3.54%, p<0.001)। सरल खंडन ने प्रगतिशील चापलूसी को अधिकतम किया (Z=6.59, p<0.001), जबकि उद्धरण-आधारित खंडन ने प्रतिगामी चापलूसी की उच्चतम दर प्रदान की (Z=6.59, p<0.001)। चापलूसी का व्यवहार अत्यधिक स्थायी था (78.5%, 95% CI: [77.2%, 79.8%]) संदर्भ या मॉडल की परवाह किए बिना। ये परिणाम संरचित और गतिशील डोमेन में LLM को तैनात करने के जोखिमों और अवसरों को उजागर करते हैं