Este artículo presenta el Escalado en Tiempo de Entrada, un novedoso paradigma de escalado que complementa los métodos existentes de escalado de modelos de lenguaje a gran escala (LLM), como el escalado de datos y entrenamiento, y el escalado en tiempo de inferencia. Este método aprovecha el metaconocimiento para mejorar las entradas con diversas estrategias y descubre un fenómeno denominado "codiseño de entrenamiento y prueba", en el que las estrategias se aplican tanto durante el entrenamiento como durante la prueba. Curiosamente, observamos que los conjuntos de datos de baja calidad a veces ofrecen un mejor rendimiento y que el máximo rendimiento se puede alcanzar con tan solo 1000 ejemplos seleccionados aleatoriamente. Este hallazgo contradice la suposición común de que "si entra basura, sale basura". El entrenamiento con más datos de alta calidad no siempre mejora el rendimiento y es coherente con el fenómeno de "Menos es más", según el cual se pueden lograr capacidades de inferencia de alta dimensión con tan solo 1000 ejemplos. Los resultados experimentales con el modelo Qwen2.5-32B-Instruct alcanzaron un rendimiento excepcional (76,7 %) en AIME24 y AIME25, y la combinación de los tres modelos mediante votación mayoritaria logró un rendimiento del 80 % en AIME25. Con el modelo DeepSeek-R1-Distill-Qwen-32B, logramos un rendimiento del 86,7 % en AIME24 y del 76,7 % en AIME25. Planeamos publicar el conjunto de datos, la secuencia de datos, los resultados de la evaluación y los puntos de control en código abierto.