Dans cet article, nous proposons une méthode d'apprentissage par régularisation temporelle (TRT) qui introduit un mécanisme de régularisation dépendant du temps pour résoudre le problème de surapprentissage des réseaux de neurones à impulsions (SNN), efficaces pour le traitement de données neuromorphiques basé sur les événements. Les SNN directement entraînés souffrent d'un surapprentissage important en raison de la taille limitée des ensembles de données neuromorphiques et du problème d'inadéquation des gradients. Le TRT atténue ce problème en imposant des contraintes plus strictes sur les premiers pas de temps. Nous comparons les performances du TRT à celles des méthodes de pointe sur les ensembles de données CIFAR10/100, ImageNet100, DVS-CIFAR10 et N-Caltech101, et vérifions son efficacité par des études d'ablation incluant la visualisation du paysage des pertes et l'analyse de la courbe d'apprentissage. De plus, nous présentons une interprétation théorique du mécanisme de régularisation temporelle du TRT basée sur les résultats de l'analyse de l'information de Fisher, et révélons le phénomène de concentration d'information temporelle (TIC) en suivant l'information de Fisher pendant l'apprentissage du TRT. Il s'agit d'un phénomène dans lequel l'information de Fisher se concentre progressivement dans les premiers pas de temps. Il montre que le mécanisme de régularisation par décroissance temporelle de TRT améliore les performances de généralisation du modèle en incitant le réseau à apprendre des caractéristiques fortes dans les premiers pas de temps avec des informations riches. Le code source est disponible sur GitHub.