चूँकि बड़े पैमाने के भाषा मॉडल (एलएलएम) उच्च-दांव वाले क्षेत्रों में स्वायत्त निर्णय लेने वाली भूमिकाओं में तेज़ी से तैनात किए जा रहे हैं, यह शोधपत्र इस बात की जाँच करता है कि क्या मानव-जनित डेटा पर प्रशिक्षित मॉडल संज्ञानात्मक पूर्वाग्रहों (जैसे, अति-निवेश) को विरासत में प्राप्त कर सकते हैं जो व्यवस्थित रूप से मानवीय निर्णय को विकृत करते हैं। अध्ययन ने एक निवेश कार्य का उपयोग करके चार प्रायोगिक स्थितियों (निवेशक मॉडल, सलाहकार मॉडल, बहु-एजेंट परामर्श और मिश्रित दबाव परिदृश्य) में एलएलएम पूर्वाग्रह की जाँच की। 6,500 परीक्षणों के परिणामों से पता चला कि एलएलएम पूर्वाग्रह अत्यधिक संदर्भ-निर्भर था। जहाँ व्यक्तिगत निर्णय संदर्भों ने तर्कसंगत लागत-लाभ तर्क प्रदर्शित किया, वहीं बहु-एजेंट परामर्शों ने एक स्पष्ट पदानुक्रम प्रभाव प्रदर्शित किया। विशेष रूप से, सममित सहकर्मी-आधारित निर्णय लेने के परिणामस्वरूप लगभग सभी मामलों में अति-निवेश हुआ। इसी प्रकार, संगठनात्मक और व्यक्तिगत दबावों के तहत उच्च अति-निवेश दर देखी गई। ये परिणाम प्रदर्शित करते हैं कि एलएलएम पूर्वाग्रह अंतर्निहित नहीं है, बल्कि सामाजिक और संगठनात्मक संदर्भ पर अत्यधिक निर्भर है, जो बहु-एजेंट प्रणालियों और अप्रशिक्षित संचालनों की तैनाती के लिए महत्वपूर्ण अंतर्दृष्टि प्रदान करता है जहाँ ऐसी स्थितियाँ स्वाभाविक रूप से उत्पन्न हो सकती हैं।