본 논문은 자원 제약이 있는 임베디드 시스템에서 Spiking Vision Transformer (SViT) 모델의 효율적인 구현을 위한 새로운 설계 방법론인 QSViT를 제안합니다. SViT 모델은 기존 Vision Transformer (ViT) 모델보다 에너지 효율적이지만, 여전히 큰 메모리 사용량으로 인해 임베디드 시스템에 적용하는 데 어려움이 있습니다. QSViT는 네트워크 계층별 체계적인 양자화 전략을 통해 SViT 모델을 압축하여 메모리 사용량과 전력 소비를 줄이는 것을 목표로 합니다. 이를 위해 다양한 정밀도 수준의 영향 조사, 기본 양자화 설정 식별, 기본 설정에 기반한 가이드 양자화 전략 수행, 효율적인 양자화 네트워크 개발 등의 단계를 거칩니다. ImageNet 데이터셋 실험 결과, QSViT는 메모리 22.75%, 전력 21.33% 절감 효과를 보이며, 정확도는 원본 SViT 모델 대비 2.1% 이내로 유지하는 것으로 나타났습니다.