본 논문은 신경망의 효율적인 학습을 위해 정밀한 스파이크 타이밍과 조정된 활동에 의존하는 뇌 네트워크의 원리를 모방하여 저전력 이벤트 기반 컴퓨팅에 유망한 후보로 여겨지는 스파이킹 신경망(SNNs)에 대해 다룹니다. 기존 SNNs의 대부분의 생물학적 학습 규칙(예: STDP)은 고립된 스파이크 쌍에 의존하고 집단 수준 활동에 대한 민감도가 부족하여 특히 노이즈가 많고 빠르게 변하는 환경에서 안정성과 일반화가 제한됩니다. 본 논문에서는 신경 동기화가 학습과 기억에 중추적인 역할을 한다는 생물학적 관찰에 착안하여, 뉴런 간의 조정된 발화 정도에 따라 시냅스 가중치를 조정하는 스파이크 동기화 의존 가소성(SSDP) 규칙을 제시합니다. SSDP는 뉴런이 일관된 활동 패턴을 형성하도록 함으로써 안정적이고 확장 가능한 학습을 지원하며, 훈련 중 불안정한 역동성에서 안정적인 역동성으로의 급격한 전환이 특징입니다. 본 논문에서는 최소 레이어 모델부터 스파이킹 ResNet 및 SNN-Transformer에 이르기까지 다양한 네트워크 유형에서 SSDP의 효과를 보여줍니다. SSDP는 완전 이벤트 기반 방식으로 작동하며 최소한의 계산 비용이 소요되어 뉴로모픽 배포에 적합합니다. 결론적으로, SSDP는 SNN을 위한 범용 최적화 전략으로 자리매김하며, 뇌의 집단 기반 학습 메커니즘에 대한 새로운 통찰력을 제공합니다.