Spiking Neural Networks (SNNs)는 기존의 Artificial Neural Networks (ANNs)를 대체하는 뇌를 모방한 신경 계산 방식이다. 이 연구는 SNN 디자인 모델, 학습 알고리즘, 정확도, 에너지 소비, 지연 시간, 스파이크 수, 수렴 행동과 같은 다차원 성능 지표를 포괄적으로 분석한다. Leaky Integrate-and-Fire (LIF)와 같은 주요 뉴런 모델과 surrogate gradient descent, ANN-to-SNN 변환, Spike-Timing Dependent Plasticity (STDP)를 포함한 학습 전략을 자세히 조사한다. 결과는 surrogate gradient 학습 SNN이 ANN 정확도에 근접하며 (1-2% 이내), 20번째 에포크까지 더 빠르게 수렴하고, 10밀리초의 짧은 지연 시간을 가짐을 보여준다. 변환된 SNN도 경쟁력 있는 성능을 달성하지만 더 높은 스파이크 수와 더 긴 시뮬레이션 창이 필요하다. STDP 기반 SNN은 수렴 속도는 느리지만 가장 낮은 스파이크 수와 에너지 소비(추론당 5밀리줄)를 보여주어, 무감독 및 저전력 작업에 최적이다.