KROMA एक नवीन ऑन्टोलॉजी मिलान (OM) ढाँचा है जो बड़े पैमाने के भाषा मॉडल (LLM) का लाभ उठाकर OM कार्यों के अर्थगत संदर्भ को गतिशील रूप से समृद्ध करता है। मौजूदा प्रणालियों की सीमित अनुकूलन क्षमता को संबोधित करने के लिए, यह संरचनात्मक, शाब्दिक और परिभाषात्मक ज्ञान का लाभ उठाते हुए, पुनर्प्राप्ति संवर्धित पीढ़ी (RAG) पाइपलाइन के भीतर LLM का लाभ उठाता है। प्रदर्शन और दक्षता दोनों को अनुकूलित करने के लिए, यह संभावित अवधारणाओं को समाप्त करने और LLM आह्वानों से जुड़े संचार ओवरहेड को उल्लेखनीय रूप से कम करने के लिए समानता-आधारित अवधारणा मिलान और हल्के ऑन्टोलॉजी परिशोधन चरणों को एकीकृत करता है। कई बेंचमार्क डेटासेट पर किए गए प्रयोगों से पता चलता है कि संदर्भ-समृद्ध LLM को ज्ञान पुनर्प्राप्ति के साथ एकीकृत करने से मौजूदा OM प्रणालियों और अत्याधुनिक LLM-आधारित दृष्टिकोणों की तुलना में बेहतर प्रदर्शन होता है, जबकि तुलनीय संचार ओवरहेड बना रहता है। यह अध्ययन बड़े पैमाने पर ऑन्टोलॉजी मिलान के लिए प्रस्तावित अनुकूलन तकनीकों (लक्षित ज्ञान पुनर्प्राप्ति, शीघ्र संवर्धन और ऑन्टोलॉजी परिशोधन) की व्यवहार्यता और लाभों पर प्रकाश डालता है।