본 논문은 대규모 언어 모델(LLM)의 강력한 추론 능력에도 불구하고, 적대적 환경에서의 안전성이 여전히 과제임을 다룹니다. 특히 강제적 사고(Forced Thinking) 시나리오에서 출력 길이가 DeepSeek-R1의 강건성에 미치는 영향을 분석합니다. 다양한 적대적 프롬프트에 대한 응답을 분석하여, 긴 출력이 자기 수정을 통해 안전성을 향상시킬 수 있지만, 특정 공격 유형은 긴 생성을 악용할 수 있음을 발견했습니다. 따라서 추론 효과와 보안 간의 균형을 맞추기 위해 출력 길이를 동적으로 제어해야 함을 시사합니다. LLM의 안전성을 높이기 위해 강화 학습 기반 정책 조정 및 적응적 토큰 길이 조절을 제안합니다.