Este artículo se centra en el estudio de la interpretabilidad mecanicista de los modelos de ingeniería inversa para explicar su comportamiento. A diferencia de estudios previos que se centraban en los mecanismos estáticos de comportamientos específicos, este artículo explora la dinámica de aprendizaje dentro del modelo. Para ello, proponemos el «circuit-tuning», un método interpretable de ajuste fino que analiza el mecanismo de aprendizaje. Introducimos el concepto de dimensión intrínseca a nivel de nodo para explicar el proceso de aprendizaje en el grafo computacional del modelo, y el algoritmo de dos pasos, circuit-tuning, construye iterativamente un subgrafo mínimo para una tarea específica y actualiza heurísticamente los parámetros clave. Los resultados experimentales confirman la existencia de la dimensión intrínseca a nivel de nodo y demuestran la eficacia de nuestro método para un ajuste fino transparente e interpretable. Visualizamos y analizamos los circuitos antes, durante y después del ajuste fino para proporcionar nuevos conocimientos sobre el mecanismo de autoorganización de las redes neuronales.