En este artículo, presentamos la Compresión Dirigida por Activación (ASC), un método novedoso para abordar el problema del exceso de cadenas de pensamiento (CoT) en el proceso de inferencia de modelos lingüísticos a gran escala (LLM). ASC comprime el proceso de inferencia extrayendo e inyectando un "vector de dirección" que aprovecha la diferencia entre la inferencia matemática concisa y la inferencia detallada basada en inglés en el espacio de activación del modelo. Esta técnica modifica directamente la representación oculta en el momento de la inferencia sin necesidad de reentrenar para acortar la longitud de la CoT. Mediante un análisis teórico con restricciones limitadas por la divergencia KL, demostramos que ajusta la fuerza de la dirección y logra una reducción de la longitud de la CoT de hasta un 67,43 % en los conjuntos de datos MATH500 y GSM8K, manteniendo la precisión. En particular, alcanza una aceleración promedio de 2,73x en el modelo 8B, lo que sugiere que es una herramienta práctica y eficiente para implementaciones de LLM con capacidades de inferencia en entornos sensibles a la latencia y al coste.