본 논문은 추론 기반 대규모 언어 모델(LLM)의 내부 추론 과정을 제어하는 새로운 방법인 'Thinking Intervention'을 제안합니다. Thinking Intervention은 특정 추론 토큰을 전략적으로 삽입하거나 수정하여 모델의 추론 과정을 명시적으로 유도하는 기법입니다. 다양한 작업(IFEval, Overthinking, SEP, XSTest, SorryBench)에서 기존 프롬프팅 방식보다 성능 향상을 보이며, 특히 지시 사항 따르기, 지시 사항 계층 구조에 대한 추론, 안전성 향상 측면에서 유의미한 결과를 얻었습니다. 이를 통해 추론 LLM 제어에 대한 새로운 연구 방향을 제시합니다.