Cet article présente une nouvelle approche pour améliorer la capacité de raisonnement déductif des modèles de langage à grande échelle (MLH). En nous appuyant sur des recherches antérieures combinant l'extension du temps de test et des modèles de compensation de résultat ou de processus, nous proposons des modèles de compensation de résultat (MRO) spécialisés dans le raisonnement déductif. Pour entraîner les MRO, nous générons des données par chaîne de pensée (CdP) à partir d'échantillons simples et multiples, et proposons une nouvelle « technique de génération d'écho » qui exploite la propension à l'erreur des MRO pour générer des données d'entraînement supplémentaires. Cette technique génère des données d'entraînement contenant une plus grande variété de types d'erreurs que les méthodes CdP conventionnelles. Les résultats expérimentaux montrent que les MRO entraînés avec CdP et des données augmentées par écho améliorent les performances de quatre MRO différents sur les jeux de données FOLIO, JustLogic et ProverQA.