इस पेपर में, हम चैटजीपीटी और डीपसीक, दो बड़े पैमाने के भाषा मॉडल (एलएलएम) के प्रदर्शन का मूल्यांकन पांच प्रमुख प्राकृतिक भाषा प्रसंस्करण (एनएलपी) कार्यों में करते हैं: भावना विश्लेषण, विषय वर्गीकरण, पाठ सारांश, मशीन अनुवाद और पाठ निहितार्थ। निष्पक्षता सुनिश्चित करने और परिवर्तनशीलता को कम करने के लिए, हम एक ही तटस्थ संकेतों के साथ दोनों मॉडलों का परीक्षण करने के लिए एक संरचित प्रयोगात्मक प्रोटोकॉल का उपयोग करते हैं और प्रत्येक कार्य के लिए दो बेंचमार्क डेटासेट (समाचार, समीक्षा, औपचारिक/अनौपचारिक पाठ, आदि) पर उनका मूल्यांकन करते हैं। हमारे प्रयोगों से पता चलता है कि डीपसीक वर्गीकरण स्थिरता और तार्किक तर्क में बेहतर प्रदर्शन करता है, जबकि चैटजीपीटी बारीक समझ और लचीलेपन की आवश्यकता वाले कार्यों में बेहतर प्रदर्शन करता है।