본 논문은 에너지 제약이 있는 임베디드 AI 애플리케이션을 위해 오프라인 강화학습(RL)에서 에너지 효율적인 Spiking Neural Networks (SNNs) 기반의 새로운 모델인 DSFormer를 제안합니다. DSFormer는 시퀀스 모델링을 통해 오프라인 RL 문제를 해결하기 위해 설계된 최초의 spike-driven transformer 모델입니다. 기존의 SNN transformer와 달리, 시간적 및 위치적 의존성을 포착하기 위해 Temporal Spiking Self-Attention (TSSA)와 Positional Spiking Self-Attention (PSSA)를 사용합니다. 또한, SNN의 특성을 유지하면서 시간적 의존성을 보존하기 위해 Progressive Threshold-dependent Batch Normalization (PTBN)을 제안합니다. D4RL 벤치마크에서의 실험 결과, DSFormer는 기존 SNN 및 ANN 기반 모델들보다 우수한 성능을 보이며, 78.4%의 에너지 절감 효과를 달성했습니다.