यह शोधपत्र एलएलएम-एज़-जज दृष्टिकोण (बहु-एजेंट तर्क और मेटा-मूल्यांकन) के बहु-एजेंट विस्तार में अंतर्निहित पूर्वाग्रह के प्रभाव का व्यवस्थित विश्लेषण करता है, जो मूल्यांकनकर्ताओं के रूप में बड़े पैमाने के भाषा मॉडल (एलएलएम) का उपयोग करता है। बहु-एजेंट तर्क और एलएलएम-एज़-मेटा-जज दोनों ढाँचों में चार प्रकार के पूर्वाग्रहों (स्थिति पूर्वाग्रह, विवरण पूर्वाग्रह, विचार प्रक्रिया पूर्वाग्रह और आम सहमति पूर्वाग्रह) का मूल्यांकन करके, हम पाते हैं कि तर्क ढाँचा प्रारंभिक तर्क के बाद पूर्वाग्रह को महत्वपूर्ण रूप से बढ़ाता है और बनाए रखता है, जबकि मेटा-मूल्यांकन दृष्टिकोण पूर्वाग्रह के प्रति अधिक प्रतिरोधी है। इसके अतिरिक्त, हम दिखाते हैं कि एकल-एजेंट पूर्वाग्रह न्यूनीकरण विधि, PINE का उपयोग करके एक निष्पक्ष एजेंट को जोड़ना, तर्क सेटिंग में पूर्वाग्रह को कम करने में प्रभावी है, लेकिन मेटा-मूल्यांकन सेटिंग में कम प्रभावी है। निष्कर्ष के तौर पर, यह अध्ययन बहु-एजेंट एलएलएम-एज़-जज प्रणाली में पूर्वाग्रह के व्यवहार का व्यापक अध्ययन करता है और सहयोगी मूल्यांकन सेटिंग्स में लक्षित पूर्वाग्रह शमन रणनीतियों की आवश्यकता पर प्रकाश डालता है।