यह शोधपत्र वृहत्-स्तरीय भाषा मॉडलों (LLM) की जटिल गणितीय तर्क क्षमताओं को बढ़ाने के लिए एक द्वि-चरणीय कारणात्मक ढाँचा, **CAMA (CAusal MAthematician)**, प्रस्तावित करता है। CAMA, प्रश्न-उत्तर युग्म डेटासेट के लिए एक कारणात्मक खोज एल्गोरिथ्म को LLM के पूर्व ज्ञान के साथ संयोजित करके एक गणितीय कारणात्मक ग्राफ़ (MCG) उत्पन्न करता है। सीखने के चरण के दौरान, MCG समाधान रणनीतियों का एक उच्च-आयामी निरूपण होता है, जिसमें मूल ज्ञान और उनकी कारणात्मक निर्भरताएँ शामिल होती हैं। अनुमान चरण के दौरान, जब कोई नया प्रश्न प्रस्तुत किया जाता है, तो प्रश्न की विषयवस्तु और LLM की मध्यवर्ती अनुमान प्रक्रियाओं के आधार पर MCG से प्रासंगिक उप-ग्राफ़ गतिशील रूप से निकाले जाते हैं, जो LLM की अनुमान प्रक्रिया का मार्गदर्शन करते हैं। प्रायोगिक परिणाम प्रदर्शित करते हैं कि CAMA चुनौतीपूर्ण गणितीय समस्याओं पर LLM के प्रदर्शन में उल्लेखनीय सुधार करता है, संरचित मार्गदर्शन असंरचित मार्गदर्शन से बेहतर प्रदर्शन करता है, और असममित कारणात्मक संबंधों को शामिल करने से केवल सममित संघों का उपयोग करने की तुलना में अधिक सुधार प्राप्त होता है।