यह शोधपत्र संकेत पहचान के लिए एक नवीन ढाँचा प्रस्तुत करता है, जो निरंतर संकेत भाषा वीडियो में व्यक्तिगत संकेतों की पहचान और स्थानीयकरण करके संकेत भाषा अनुवाद में डेटा की कमी की समस्या का समाधान करता है। मौजूदा संकेत पहचान विधियों के शाब्दिक लचीलेपन और अस्पष्टता संबंधी मुद्दों को हल करने के लिए, हम एक गैर-प्रशिक्षण दृष्टिकोण प्रस्तावित करते हैं जो एक बड़े पैमाने के भाषा मॉडल (एलएलएम) को एकीकृत करता है। हम स्थानिक-कालिक और हस्त विशेषताओं को निकालते हैं और गतिशील कालिक वार्पिंग और कोसाइन समानता का उपयोग करके उन्हें एक बड़े संकेत भाषा शब्दकोश से मिलाते हैं। फिर हम बीम खोज का उपयोग करके संदर्भ-संवेदनशील शाब्दिक अस्पष्टीकरण करने के लिए एलएलएम का लाभ उठाते हैं। सिंथेटिक और वास्तविक-विश्व संकेत भाषा डेटासेट पर प्रायोगिक परिणाम मौजूदा विधियों की तुलना में बेहतर सटीकता और वाक्य प्रवाह प्रदर्शित करते हैं।