Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Conversion ANN vers SNN sans formation pour transformateur de pointe haute performance

Created by
  • Haebom

Auteur

Jingya Wang, Xin Deng, Wenjie Wei, Dehao Zhang, Shuai Wang, Qian Sun, Jieyuan Zhang, Hanwen Liu, Ning Xie, Malu Zhang

Contour

Cet article présente les réseaux de neurones à pics (SNN), qui utilisent un paradigme piloté par événements, comme une approche prometteuse pour la construction d'architectures Transformer économes en énergie. Comparées aux transformateurs à pics classiques entraînés directement, les méthodes de conversion ANN vers SNN permettent d'éviter des coûts d'entraînement élevés. Cependant, elles sont limitées par leur incapacité à gérer efficacement les opérations non linéaires de l'architecture Transformer et par la nécessité d'affiner le ANN pré-entraîné. Pour résoudre ces problèmes, cet article propose un cadre de conversion ANN vers SNN hautes performances, sans entraînement, adapté à l'architecture Transformer. Plus précisément, nous introduisons des neurones à décroissance exponentielle multi-bases (MBE), qui approximent efficacement diverses opérations non linéaires grâce à une stratégie de décroissance exponentielle et à une méthode d'encodage multi-bases, éliminant ainsi le besoin de modifier le poids du ANN pré-entraîné. Des expériences approfondies sur diverses tâches (CV, NLU, NLG) et sur les architectures de transformateurs classiques (ViT, RoBERTa, GPT-2) démontrent que la méthode proposée atteint une précision de conversion quasi-nulle avec une latence nettement inférieure. Cela ouvre une voie prometteuse pour un déploiement efficace et évolutif des transformateurs à picots dans des applications concrètes.

Takeaways, Limitations

Takeaways:
Un cadre de conversion ANN-SNN proposé qui résout le problème des coûts de formation élevés dans les méthodes de formation directe SNN.
Approximation efficace des opérations non linéaires dans les architectures Transformer à l'aide de neurones MBE.
Il n’est pas nécessaire de modifier les poids du réseau de neurones artificiels pré-entraîné, ce qui élimine le besoin de réglages fins supplémentaires.
Obtenez une précision de conversion quasi sans perte et une faible latence sur une variété de tâches et d'architectures.
Démonstration d'un déploiement efficace et évolutif de transformateurs à picots dans des applications réelles.
Limitations:
Aucune limitation générale ou spécifique de la méthode présentée dans cet article n'est mentionnée. Des recherches complémentaires sont nécessaires pour le confirmer.
👍