Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Tri-Accel : optimisation adaptative de précision et élastique de la mémoire tenant compte de la courbure pour une utilisation efficace du GPU

Created by
  • Haebom

Auteur

Mohsen Sheibanian, Pouya Shaeri, Alimohammad Beigi, Ryan T. Woo, Aryan Keluskar

Contour

Cet article présente un cadre d'optimisation unifié appelé Tri-Accel. Tri-Accel adapte conjointement trois stratégies d'accélération et paramètres adaptatifs pendant l'apprentissage. Ces stratégies sont les suivantes : les mises à jour adaptatives de précision, qui allouent dynamiquement des niveaux de précision mixtes en fonction de la courbure et de la variance du gradient ; les signaux clairsemés du second ordre, qui exploitent les motifs clairsemés Hessian/Fisher pour guider les décisions de précision et de taille de pas ; et la mise à l'échelle des lots à mémoire élastique, qui ajuste la taille des lots en temps réel en fonction de la disponibilité de la VRAM. Lors d'expériences sur CIFAR-10 utilisant ResNet-18 et EfficientNet-B0, Tri-Accel a réduit le temps d'apprentissage jusqu'à 9,9 % et l'utilisation de la mémoire de 13,3 %, tout en améliorant la précision de +1,1 % par rapport à la référence FP32. Tri-Accel est implémenté à l'aide d'un noyau Triton personnalisé, permettant une optimisation automatique sans réglage manuel des hyperparamètres grâce à une adaptation sensible au matériel.

Takeaways, Limitations

Takeaways:
Nous présentons un cadre de formation de réseau neuronal efficace qui améliore la précision tout en réduisant simultanément le temps de formation et l'utilisation de la mémoire.
L’apprentissage adaptatif améliore progressivement l’efficacité au cours du processus de formation.
L'adaptation sensible au matériel permet une optimisation automatique dans divers environnements.
Ouvre la voie à une formation plus efficace des réseaux neuronaux sur les appareils périphériques et aux déploiements cloud sensibles aux coûts.
Limitations:
Les expériences présentées se limitent à l'ensemble de données CIFAR-10/100 et à une architecture réseau spécifique. Des expériences supplémentaires sur une plus grande variété d'ensembles de données et d'architectures réseau sont nécessaires.
Des recherches supplémentaires sont nécessaires pour déterminer si les améliorations de performances de Tri-Accel sont cohérentes dans tous les cas.
Utilisant le noyau Triton, il peut dépendre d'environnements matériels spécifiques. Sa portabilité vers d'autres plateformes matérielles doit être étudiée.
👍