दैनिक अर्क्सिव

यह पेज दुनियाभर में प्रकाशित होने वाले आर्टिफिशियल इंटेलिजेंस संबंधित रिसर्च पेपर्स को संक्षिप्त रूप में प्रस्तुत करता है।
यहां Google Gemini का उपयोग करके पेपर्स का सारांश तैयार किया जाता है और यह पेज गैर-लाभकारी रूप से संचालित किया जाता है।
पेपर के कॉपीराइट लेखक और संबंधित संस्थान के पास हैं, और साझा करते समय बस स्रोत का उल्लेख करें।

शिक्षा में बड़े भाषा मॉडल के बहुभाषी प्रदर्शन पूर्वाग्रह

작성자
  • Haebom

लेखक

वंश गुप्ता, संकलन पाल चौधरी, विल एम ज़ौहर, डोन्या रूइन, मृणमाया सचान

रूपरेखा

यह शोधपत्र एक शैक्षिक वातावरण में बहुभाषाओं (अंग्रेज़ी, मंदारिन, हिंदी, अरबी, जर्मन, फ़ारसी, तेलुगु, यूक्रेनी और चेक) का उपयोग करते हुए एक बड़े पैमाने के भाषा मॉडल (एलएलएम) की व्यवहार्यता का मूल्यांकन करता है। एलएलएम के प्रदर्शन को चार शैक्षिक कार्यों पर मापा गया: छात्रों की भ्रांतियों की पहचान करना, व्यक्तिगत प्रतिक्रिया प्रदान करना, इंटरैक्टिव ट्यूशन और अनुवादों का मूल्यांकन करना। परिणामों से पता चला कि एलएलएम का प्रदर्शन मुख्य रूप से प्रशिक्षण डेटा में शामिल भाषा की मात्रा से संबंधित था। कम संसाधन वाली भाषाओं के लिए प्रदर्शन विशेष रूप से खराब था, और प्रदर्शन में गिरावट अंग्रेज़ी की तुलना में अधिक बार हुई।

Takeaways, Limitations

Takeaways: कम संसाधन वाली भाषाओं सहित विभिन्न भाषाओं में एलएलएम की शैक्षिक प्रयोज्यता का मूल्यांकन करने वाले अनुभवजन्य शोध प्रस्तुत करके, हम शैक्षिक परिवेश में इसे लागू करने से पहले संबंधित भाषा में एलएलएम के प्रदर्शन को सत्यापित करने के महत्व पर ज़ोर देते हैं। हमने पाया कि एलएलएम का प्रदर्शन प्रशिक्षण डेटा की भाषाई संरचना से महत्वपूर्ण रूप से प्रभावित होता है।
Limitations: इस अध्ययन में एक विशिष्ट भाषा और कार्य का मूल्यांकन किया गया है, जिससे इसकी अन्य भाषाओं और कार्यों तक सामान्यीकरण सीमित हो गया है। इसके अलावा, इसमें एलएलएम प्रदर्शन में गिरावट के कारणों का गहन विश्लेषण नहीं है। विभिन्न एलएलएम मॉडलों के तुलनात्मक विश्लेषण का अभाव एक और सीमा है।
👍