Cet article propose un cadre permettant la transition de la recherche implicite traditionnelle vers l'inférence structurée afin d'améliorer le processus d'inférence des modèles linguistiques à grande échelle (MLH). La recherche implicite traditionnelle souffre de chemins d'inférence instables, d'un manque de correction d'erreurs et d'un apprentissage limité de l'expérience passée. Cette étude analyse les signaux de réflexion des chemins d'inférence réussis et échoués afin d'extraire des modèles d'inférence structurés. Nous appliquons ensuite un processus d'affinement pour suivre ces directives étape par étape pendant le processus d'inférence, en corrigeant les erreurs à chaque étape et en stabilisant le processus. Les résultats expérimentaux sur BBH et quatre tests de performance supplémentaires (GSM8K, MATH-500, MBPP et HumanEval) démontrent que la méthode proposée surpasse systématiquement les puissants modèles de base dans diverses tâches d'inférence. L'inférence structurée par exécution et raffinement par étapes améliore la stabilité et les performances de généralisation, tandis que les directives sont facilement transférables entre domaines et soutiennent avec souplesse la collaboration inter-modèles, atteignant des performances comparables ou supérieures à celles du réglage fin basé sur l'apprentissage supervisé en termes d'efficacité et d'évolutivité.