본 논문은 대규모 언어 모델(LLM)의 사고 과정을 제어하기 위한 새로운 접근 방식을 제시합니다. 특히, DeepSeek-R1-Distill 모델에서 나타나는 특정 추론 행동을 분석하고 조작하는 방법을 제안합니다. 연구는 10가지 범주의 500개 과제에 대한 실험을 통해 불확실성 표현, 가설 검증을 위한 예시 생성, 추론 과정에서의 백트래킹과 같은 다양한 추론 행동을 식별했습니다. 이러한 행동이 모델의 활성화 공간에서 선형적인 방향으로 매개됨을 발견하고, 스티어링 벡터를 사용하여 이러한 행동을 제어하는 방법을 제시합니다. 이를 통해 모델의 백트래킹 경향이나 불확실성 표현과 같은 특정 측면을 조절할 수 있습니다.