Este artículo propone la Generación Aumentada Lógica (GAL), un paradigma novedoso inspirado en el pensamiento metodológico de Descartes, para abordar el problema de las alucinaciones que surgen cuando los modelos de lenguaje a gran escala (MLG) realizan tareas intensivas en conocimiento. GAL descompone preguntas complejas en subpreguntas atómicas, ordenadas por dependencias lógicas, y las resuelve secuencialmente, aprovechando respuestas previas para guiar la recuperación contextual de subpreguntas posteriores. Además, integra un mecanismo de terminación lógica que detiene la inferencia cuando se encuentra una subpregunta sin respuesta, lo que previene la propagación de errores y reduce los cálculos innecesarios. Finalmente, sintetiza todas las subsoluciones para generar una respuesta validada. Los resultados experimentales en cuatro conjuntos de datos de referencia demuestran que GAL mejora la robustez de la inferencia, reduce las alucinaciones y alinea el enfoque de resolución de problemas del MGL con la cognición humana. Esto presenta una alternativa sólida a los sistemas GAL existentes.