Este artículo presenta el Razonamiento Lógico Escalable (SLR), un marco integral para la evaluación y el entrenamiento sistemáticos de modelos lingüísticos a gran escala (LLM). A partir de la especificación de la tarea del usuario, SLR genera automáticamente (i) indicaciones instruccionales para tareas de razonamiento inductivo, (ii) programas de verificación ejecutables (con recompensas verificables) para la salida del modelo, y (iii) posibles reglas de verdad fundamental. Este proceso es totalmente automatizado y escalable, no requiere anotación humana y permite un control preciso de la dificultad de la tarea. Utilizando SLR, creamos SLR-Bench, un banco de pruebas compuesto por 19 000 indicaciones organizadas en 20 niveles curriculares de complejidad relacional, aritmética y recursiva creciente. Las evaluaciones a gran escala muestran que los LLM de vanguardia generan fácilmente reglas sintácticamente válidas, pero a menudo no logran un razonamiento lógico preciso. Si bien los LLM de inferencia recientes han mejorado su rendimiento, implican un coste computacional muy elevado en tiempo de prueba, que supera los 300 $ por 1000 preguntas. Finalmente, el aprendizaje curricular mediante SLR duplicó la precisión de SLR-Bench de Llama-3-8B, alcanzando un nivel comparable a Gemini-Flash-Thinking con un coste computacional significativamente menor. Además, esta capacidad de inferencia se generaliza a diversos puntos de referencia existentes, lo que destaca la eficacia de SLR para la inferencia posterior.