Este artículo presenta un enfoque novedoso para mejorar la capacidad de razonamiento deductivo de los modelos de lenguaje a gran escala (LLM). Basándonos en investigaciones previas que combinan la extensión del tiempo de prueba y los modelos de compensación de resultados o procesos, proponemos modelos de compensación de resultados (ORM) especializados en razonamiento deductivo. Para entrenar los ORM, generamos datos mediante Cadena de Pensamiento (CoT) utilizando muestras individuales y múltiples, y proponemos una novedosa "técnica de generación de eco" que aprovecha la propensión a errores de los LLM para generar datos de entrenamiento adicionales. Esta técnica genera datos de entrenamiento con una mayor variedad de tipos de error que los métodos CoT convencionales. Los resultados experimentales muestran que los ORM entrenados con CoT y datos aumentados con eco mejoran el rendimiento de cuatro LLM diferentes en los conjuntos de datos FOLIO, JustLogic y ProverQA.