Este artículo aborda las limitaciones de la capacidad de razonamiento lógico de los modelos de lenguaje a gran escala (LLM). Los LLM se enfrentan a problemas lógicos complejos, que se manifiestan en la respuesta lógica a preguntas que requieren un razonamiento deductivo, inductivo o analógico complejo, y en las contradicciones lógicas que surgen en las respuestas a diferentes preguntas (p. ej., una urraca es un pájaro, y los pájaros tienen alas, pero una urraca no las tiene). Este artículo examina exhaustivamente los trabajos existentes, categoriza los métodos basados en solucionadores externos, indicaciones y ajustes finos, y analiza diversos conceptos y soluciones de consistencia lógica, como la implicación, la negación, la transitividad y la consistencia fáctica. Además, revisa conjuntos de datos de referencia y métricas de evaluación de uso común, y sugiere direcciones de investigación prometedoras, como la extensión de la lógica modal para tener en cuenta la incertidumbre y el desarrollo de algoritmos eficientes que satisfagan simultáneamente múltiples consistencias lógicas.