Sign In

All in one timestep: Enhancing Sparsity and Energy efficiency in Multi-level Spiking Neural Networks

Created by
  • Haebom
Category
Empty

저자

Andrea Castagnetti, Alain Pegatoquet, Benoit Miramond

개요

Spiking Neural Networks (SNNs)의 정확도 저하 문제를 해결하기 위해, 다중 레벨 스파이킹 뉴런 모델을 제안합니다. 이 모델은 정보 손실을 줄여 정확도를 향상시키고, 추론 지연 시간을 최소화하며, 전력 소비를 줄이는 것을 목표로 합니다. Sparse-ResNet이라는 새로운 잔차 아키텍처를 제안하여 이미지 분류에서 정확도를 높이고 네트워크 활동을 감소시켰습니다.

시사점, 한계점

시사점:
다중 레벨 스파이킹 뉴런 모델을 통해 정보 압축 효율을 높여, 성능 저하 없이 지연 시간을 단축할 수 있음.
이미지 분류 시나리오에서 바이너리 SNNs 대비 에너지 소비를 2~3배 감소시킴.
신경 형태 데이터에서 추론 지연 시간을 1 timestep으로 단축, 기존 결과 대비 10배 압축.
Sparse-ResNet 아키텍처를 통해 이미지 분류에서 최첨단 정확도를 달성하고, 이전 SNN ResNets 대비 네트워크 활동을 20% 이상 감소시킴.
한계점:
논문에서 구체적인 한계점에 대한 언급은 없음.
👍