본 논문은 교통 사고 감지를 위한 새로운 아키텍처인 HybridMamba를 제시합니다. HybridMamba는 시각적 변환기와 상태 공간 시간 모델링을 통합하여 고정밀도 사고 시간 위치 파악을 달성합니다. 다층 토큰 압축과 계층적 시간 처리를 통해 계산 효율성을 유지하면서 시간 해상도를 희생하지 않습니다. 아이오와 교통부의 대규모 데이터셋에서 평가한 결과, 2분 비디오에서 평균 절대 오차 1.50초(기준 모델과 비교하여 p<0.01)를 달성했으며, 예측의 65.2%가 실제 값 1초 이내에 있었습니다. 매개변수 수가 훨씬 적음에도 불구하고 (30억 개 vs 130억720억 개), TimeChat, VideoLLaMA-2와 같은 최신 비디오-언어 모델보다 최대 3.95초 앞섭니다. 다양한 비디오 지속 시간(240분)과 다양한 환경 조건에서 효과적인 시간 위치 파악을 보여주며, 교통 감시에서 미세한 시간 위치 파악의 잠재력을 강조하지만, 확장 배포를 위한 과제도 제시합니다.