Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

L'optimisation quantique est-elle prête ? Vers la compression des réseaux neuronaux grâce au calcul quantique adiabatique

Created by
  • Haebom

Auteur

Zhehui Wang, Benjamin Chen Ming Choong, Tian Huang, Daniel Gerlinghoff, Rick Siow Mong Goh, Cheng Liu, Tao Luo

Contour

Cet article présente une méthode permettant d'obtenir une compression efficace (élagage-quantification fine) des réseaux de neurones profonds (DNN) grâce à l'optimisation quantique, et plus précisément au recuit quantique (AQC). L'optimisation des modèles DNN à grande échelle devient de plus en plus complexe. Cette étude modifie les techniques heuristiques existantes pour reformuler le problème de compression de modèles en un problème d'optimisation quadratique binaire sans contrainte (QUBO) et le résoudre à l'aide d'un dispositif de recuit quantique commercial. Les résultats expérimentaux démontrent que l'AQC est plus efficace en termes de temps et excelle dans la recherche d'optima globaux que les algorithmes classiques tels que les algorithmes génétiques ou l'apprentissage par renforcement, démontrant ainsi son potentiel pour une compression efficace des modèles DNN réels.

Takeaways, Limitations

Takeaways:
Nous proposons que le recuit quantique soit une méthode prometteuse pour la compression efficace des modèles DNN à grande échelle.
Nous démontrons expérimentalement que l'AQC est plus efficace et plus rapide pour trouver des optima globaux que les algorithmes classiques.
Nous présentons une manière efficace de reformuler le problème de compression DNN en un problème QUBO.
Limitations:
Actuellement, on s’appuie fortement sur les dispositifs commerciaux de recuit quantique, et leurs performances peuvent varier en fonction de l’avancement de la technologie informatique quantique.
La portée de la recherche est limitée à un type spécifique de réseau neuronal profond (DNN) et à une technique de compression (élagage-quantification affinée).
Des recherches supplémentaires sont nécessaires pour explorer l’applicabilité et les performances de généralisation à des modèles DNN plus divers et plus complexes.
👍