Este artículo analiza teóricamente la eficiencia energética de optimizadores neuronales o neuromórficos. Los optimizadores neuronales utilizan los paradigmas de computación en memoria (CIM) y aprendizaje en memoria (LIM) para reducir el consumo energético asociado con el acceso y las actualizaciones de memoria. Se derivan estimaciones teóricas de la métrica de energía-solución para un optimizador neuronal ideal, que ajusta la barrera energética de la memoria física para que la dinámica de actualización y consolidación de la memoria se alinee con la dinámica de optimización o recocido. Este análisis captura la termodinámica de no equilibrio del aprendizaje, y las estimaciones de eficiencia energética son independientes del modelo, dependiendo únicamente de las operaciones de actualización del modelo (OPS), el número de parámetros, la tasa de convergencia y la precisión de la solución. Finalmente, se aplica el análisis para estimar los límites inferiores de la métrica de energía-solución para tareas de IA a gran escala.