En este artículo, presentamos un método novedoso para controlar el proceso de inferencia de un modelo de lenguaje a gran escala (LLM) con capacidades de pensamiento. Mediante experimentos con 500 tareas en 10 categorías diferentes utilizando el modelo DeepSeek-R1-Distill, identificamos diversos comportamientos de inferencia, como la representación de la incertidumbre, la generación de ejemplos para la prueba de hipótesis y el retroceso durante el proceso de inferencia. Demostramos que estos comportamientos se median linealmente en el espacio de activación del modelo y pueden controlarse mediante vectores de dirección. Este estudio proporciona un método para extraer y aplicar estos vectores para modular aspectos específicos del proceso de inferencia del modelo, como la tendencia al retroceso o la representación de la incertidumbre. Verificamos la consistencia de nuestro método de control utilizando tres modelos DeepSeek-R1-Distill.