Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

TAPAS : Dérivation rapide et automatique de stratégies parallèles de tenseurs pour les grands réseaux neuronaux

Created by
  • Haebom

Auteur

Ziji Shi, Le Jiang, Ang Wang, Jie Zhang, Chencan Wu, Yong Li, Xiaokui Xiao, Wei Lin, Jialin Li

Contour

Cet article présente un framework de parallélisation automatique, TAPAS, permettant de relever les défis de la détermination automatique des stratégies de parallélisation des tenseurs, essentielles à l'apprentissage distribué des réseaux de neurones à grande échelle. Ce framework s'attaque à l'espace de recherche en croissance exponentielle des méthodes existantes en le réduisant efficacement grâce à une approche de division et de conquête, exploitant la sous-structure récurrente des réseaux de neurones. Cette approche permet d'atteindre une complexité sous-linéaire par rapport à la taille du modèle, offrant ainsi une solution évolutive applicable à l'apprentissage des réseaux à grande échelle. Les résultats expérimentaux démontrent que TAPAS atteint des vitesses de recherche jusqu'à 160 fois supérieures à celles des frameworks de parallélisation automatique de pointe existants, et que les performances de la stratégie dérivée sont comparables, voire supérieures, à celles de la bibliothèque Megatron-LM conçue par des experts.

Takeaways, Limitations

Takeaways:
Nous présentons TAPAS, un framework efficace pour la parallélisation automatique des tenseurs de réseaux neuronaux à grande échelle.
Amélioration du problème de complexité exponentielle existant en complexité sous-linéaire.
Obtenez des vitesses de recherche extrêmement plus rapides (jusqu'à 160 fois plus rapides) que les frameworks de parallélisation automatique hautes performances existants.
Atteignez automatiquement des performances de niveau expert
Limitations:
Les améliorations de performances de TAPAS peuvent dépendre du type d'architecture de réseau neuronal. Les performances de généralisation sur différentes architectures doivent être évaluées.
Les résultats expérimentaux peuvent être limités à des modèles et environnements matériels spécifiques, une vérification des performances dans d'autres environnements est donc nécessaire.
L'optimalité des stratégies parallèles de tenseurs générées automatiquement peut encore varier en fonction du modèle et de la configuration matérielle.
👍