Cet article se concentre sur les réseaux de neurones à pics multibits (SNN) qui visent une IA économe en énergie et de haute précision. Les SNN multibits existants souffrent d'améliorations de performances disproportionnées en raison de l'augmentation des besoins en mémoire et en calcul à mesure que le nombre de bits augmente. En s'appuyant sur les différences d'importance entre les couches, cet article propose une stratégie d'allocation de bits adaptative pour les SNN directement entraînés, permettant une allocation fine de la mémoire et des ressources de calcul à chaque couche. En paramétrant la longueur temporelle et la largeur de bit des poids et des pics, permettant l'apprentissage et le contrôle par gradients, nous améliorons l'efficacité et la précision des SNN. Pour relever les défis posés par les variations de largeurs de bit et de longueurs temporelles, nous proposons des neurones à pics améliorés qui gèrent diverses longueurs temporelles, permettent la dérivation de gradients pour les longueurs temporelles et sont mieux adaptés à la quantification des pics. De plus, nous formalisons théoriquement le problème de l'inadéquation des pas de taille dans les largeurs de bit apprenables et proposons un mécanisme de mise à jour des pas de taille pour atténuer les graves erreurs de quantification qui en résultent. Des expériences sur divers jeux de données, dont CIFAR, ImageNet, CIFAR-DVS, DVS-GESTURE et SHD, démontrent que la méthode proposée peut améliorer la précision tout en réduisant les coûts globaux de mémoire et de calcul. Plus précisément, le SEWResNet-34 proposé atteint une précision supérieure de 2,69 % et un budget binaire 4,16 fois inférieur à celui du modèle de référence de pointe sur ImageNet. Les résultats de cette recherche seront publiés ultérieurement.