Cet article propose un cadre causal en deux étapes, **CAMA (CAusal MAthematician)**, pour améliorer les capacités de raisonnement mathématique complexe des modèles de langage à grande échelle (LLM). CAMA combine un algorithme de découverte causale pour les ensembles de données de paires question-réponse avec les connaissances préalables du LLM afin de générer un graphe causal mathématique (MCG). Pendant la phase d'apprentissage, le MCG est une représentation en haute dimension des stratégies de résolution, contenant les connaissances fondamentales et leurs dépendances causales. Pendant la phase d'inférence, lorsqu'une nouvelle question est présentée, les sous-graphes pertinents sont extraits dynamiquement du MCG en fonction du contenu de la question et des processus d'inférence intermédiaires du LLM, guidant ainsi le processus d'inférence du LLM. Les résultats expérimentaux démontrent que CAMA améliore significativement les performances du LLM sur les problèmes mathématiques complexes, qu'un guidage structuré surpasse un guidage non structuré et que l'intégration de relations causales asymétriques produit de plus grandes améliorations que l'utilisation d'associations symétriques seules.