यह शोध पत्र वैज्ञानिक अनुसंधान विचार निर्माण में बड़े पैमाने के भाषा मॉडल (LLM) के प्रदर्शन को बेहतर बनाने पर केंद्रित है। विशेष रूप से, हम परिकल्पना विकास प्रक्रिया पर ध्यान केंद्रित करते हैं, जो अत्यधिक विशिष्ट घोषणात्मक कथन उत्पन्न करती है जो शोध विचारों को अनुभवजन्य सत्यापन से जोड़ते हैं। मौजूदा दृष्टिकोण केवल खोज संवर्द्धन का लाभ उठाते हैं और अंतर्निहित तर्क प्रक्रियाओं की उपेक्षा करते हुए केवल अंतिम परिणाम पर ध्यान केंद्रित करते हैं। इस शोध पत्र में, हम $\texttt{HypER}$ ($\textbf{Hyp}$othesis Generation with $\textbf{E}$xplanation and $\textbf{R}$easoning) प्रस्तुत करते हैं, जो एक लघु-स्तरीय भाषा मॉडल (SLM) है जिसे साहित्य-आधारित तर्क और साक्ष्य-आधारित परिकल्पना निर्माण के लिए प्रशिक्षित किया गया है। $\texttt{HypER}$ को नियंत्रित हस्तक्षेप की उपस्थिति में मान्य और अमान्य वैज्ञानिक अनुमान श्रृंखलाओं में अंतर करने के लिए एक बहु-कार्य सेटिंग में प्रशिक्षित किया जाता है। हमारे प्रयोगों से पता चलता है कि $\texttt{HypER}$ वैध और अवैध अनुमान श्रृंखलाओं के बीच अंतर करने में बेसलाइन मॉडल से बेहतर प्रदर्शन करता है (+22% औसत निरपेक्ष F1) और मानव विशेषज्ञों द्वारा मूल्यांकन किए गए उच्च व्यवहार्यता और प्रभाव के साथ बेहतर साक्ष्य-आधारित परिकल्पनाएं उत्पन्न करता है (5-बिंदु लिकर्ट पैमाने पर ≥3.5)।