본 논문은 영상 기반 대규모 언어 모델(Video LLMs)의 안전성 문제를 체계적으로 연구하기 위해 최초의 대규모 다문화 영상 안전성 벤치마크인 VideoSafetyBench (VSB-77k)를 제시합니다. VSB-77k는 77,646개의 영상-질의 쌍으로 구성되며 10개 언어 공동체에 걸쳐 19개의 주요 위험 범주를 포함합니다. 연구 결과, 영상 모달리티 통합은 안전성 성능을 평균 42.3% 저하시키는 것으로 나타났으며, 이는 다중 모달리티 공격 악용의 시스템적 위험을 드러냅니다. 이러한 취약성을 해결하기 위해, 본 논문에서는 두 가지 혁신적인 기술을 활용한 이중 단계 프레임워크인 VideoSafety-R1을 제안합니다. 첫째, 경고 토큰 안내 안전 미세 조정(AT-SFT)은 학습 가능한 경고 토큰을 시각 및 텍스트 시퀀스에 주입하여 다중 작업 목표를 통해 다중 모달리티에서 명시적인 피해 인식을 가능하게 합니다. 둘째, 안전 안내 GRPO는 이중 모달리티 검증에서 파생된 규칙 기반 보상을 사용한 동적 정책 최적화를 통해 방어적 추론을 향상시킵니다. 이러한 구성 요소는 안전 정렬을 수동적 피해 인식에서 능동적 추론으로 전환시킵니다. 결과적으로 VideoSafety-R1은 VSB-Eval-HH에서 65.1% 향상을 달성했으며, MMBench, VLGuard, FigStep 이미지 안전 데이터셋에서 각각 59.1%, 44.3%, 15.0% 향상되었습니다.