본 논문은 추론 강화 대규모 언어 모델(LLM)의 중간 추론 단계 생성 기능을 활용하여 모델의 동작을 더욱 세밀하게 제어하는 새로운 패러다임인 "Thinking Intervention"을 제안합니다. Thinking Intervention은 특정 사고 토큰을 전략적으로 삽입하거나 수정하여 LLM의 내부 추론 과정을 명시적으로 안내합니다. IFEval, SEP, XSTest, SORRY-Bench 등 다양한 작업에 대한 종합적인 평가를 통해, Thinking Intervention이 기존 프롬프트 방식보다 상당히 우수한 성능을 보임을 확인하였습니다. 특히, 지시사항 따르기(IFEval), 지시사항 계층 구조에 대한 추론(SEP), 안전성 정렬(XSTest, SORRY-Bench)에서 각각 최대 6.7%, 15.4%, 40.0%의 성능 향상을 달성했습니다. 이 연구는 추론 LLM을 제어하는 새로운 연구 방향을 제시합니다.