All in one timestep: Enhancing Sparsity and Energy efficiency in Multi-level Spiking Neural Networks
Created by
Haebom
Category
Empty
저자
Andrea Castagnetti, Alain Pegatoquet, Benoit Miramond
개요
Spiking Neural Networks (SNNs)의 정확도 저하 문제를 해결하기 위해, 다중 레벨 스파이킹 뉴런 모델을 제안합니다. 이 모델은 정보 손실을 줄여 정확도를 향상시키고, 추론 지연 시간을 최소화하며, 전력 소비를 줄이는 것을 목표로 합니다. Sparse-ResNet이라는 새로운 잔차 아키텍처를 제안하여 이미지 분류에서 정확도를 높이고 네트워크 활동을 감소시켰습니다.
시사점, 한계점
•
시사점:
◦
다중 레벨 스파이킹 뉴런 모델을 통해 정보 압축 효율을 높여, 성능 저하 없이 지연 시간을 단축할 수 있음.
◦
이미지 분류 시나리오에서 바이너리 SNNs 대비 에너지 소비를 2~3배 감소시킴.
◦
신경 형태 데이터에서 추론 지연 시간을 1 timestep으로 단축, 기존 결과 대비 10배 압축.
◦
Sparse-ResNet 아키텍처를 통해 이미지 분류에서 최첨단 정확도를 달성하고, 이전 SNN ResNets 대비 네트워크 활동을 20% 이상 감소시킴.