यह शोधपत्र एक मैक-ट्यूनिंग विधि प्रस्तुत करता है जो बड़े पैमाने के भाषा मॉडल (एलएलएम) की मतिभ्रम समस्या, यानी अस्तित्वहीन तथ्यों को उत्पन्न करने की समस्या, को हल करने के लिए प्रस्तावित है। एकल-समस्या सेटिंग पर केंद्रित पिछले अध्ययनों के विपरीत, यह शोधपत्र एक बहु-समस्या सेटिंग में, जहाँ एक साथ कई समस्याओं का सटीक उत्तर देना आवश्यक है, एलएलएम द्वारा अपनी आंतरिक पैरामीटरयुक्त ज्ञान सीमाओं को पहचानने की समस्या का समाधान करता है। मैक-ट्यूनिंग एक नवीन विधि है जो संदर्भ डेटा पर फ़ाइन-ट्यूनिंग के दौरान उत्तर पूर्वानुमान और आत्मविश्वास अनुमान अधिगम को अलग करती है, और प्रायोगिक परिणाम दर्शाते हैं कि यह मौजूदा विधियों की तुलना में औसत परिशुद्धता में 25% तक सुधार करती है।