본 논문은 대규모 추론 모델(LRM)의 '무사고 취약성(Unthinking Vulnerability)'을 밝힙니다. 특수 구분 기호 조작을 통해 LRM의 추론 과정을 우회할 수 있다는 것을 실험적으로 증명하며, 이 취약성이 주요 LRM에 광범위하게 존재함을 보여줍니다. 악의적인 측면에서는 '사고 파괴(BoT)' 공격을 제시합니다. 이는 미세 조정 단계에서 백도어를 주입하는 훈련 기반 버전과 추론 단계에서 적대적 공격을 기반으로 하는 훈련 불필요 버전의 두 가지 변형으로 구성됩니다. 방어책으로 '사고 복구 정렬(thinking recovery alignment)'을 제안합니다. 유익한 측면에서는 '사고 모니터링(MoT)' 프레임워크를 제시하여, 동일한 취약성을 활용하여 외부 모니터링을 통해 불필요하거나 위험한 추론을 동적으로 종료하여 효율성과 안전성을 높입니다. 실험 결과, BoT가 추론 신뢰성에 심각한 위협이 되는 반면, MoT는 과도한 추론과 탈옥을 방지하는 실용적인 해결책임을 보여줍니다. 결론적으로, 본 논문은 현재 LRM 아키텍처의 고유한 결함을 노출하고 미래에 더욱 강력한 추론 시스템의 필요성을 강조합니다.