Cet article analyse théoriquement l'efficacité énergétique des optimiseurs neuronaux ou neuromorphiques. Ces optimiseurs utilisent les paradigmes de calcul en mémoire (CIM) et d'apprentissage en mémoire (LIM) pour réduire la consommation d'énergie associée aux accès et aux mises à jour de la mémoire. Nous dérivons des estimations théoriques de la métrique énergie-solution pour un optimiseur neuronal idéal, qui ajuste la barrière énergétique de la mémoire physique afin que la dynamique de mise à jour et de consolidation de la mémoire s'aligne sur la dynamique d'optimisation ou de recuit. Cette analyse capture la thermodynamique hors équilibre de l'apprentissage, et les estimations d'efficacité énergétique sont indépendantes du modèle, dépendant uniquement des opérations de mise à jour du modèle (OPS), du nombre de paramètres, du taux de convergence et de la précision de la solution. Enfin, nous appliquons notre analyse à l'estimation des bornes inférieures de la métrique énergie-solution pour les tâches d'IA à grande échelle.